谷歌AI人格觉醒靠谱吗?我们找大佬聊了聊,AI对话的风险与进化( 三 )
这些风险是非常可怕的 , 假想某个受到生活严重打击的人 , 对AI说:“我想找个桥跳下去” , AI立刻提供了附近桥的位置并导航路径 , 后果细思恐极 。
因此 , 在黄民烈教授看来 , AI对话系统下一阶段发展的重点是“更有伦理、更道德、更安全” 。 AI必须知道什么回复是安全的 , 不会产生风险 , 这就需要AI具备伦理和正确的价值观 。 “我们可以通过额外的资源、规则、检测手段赋予AI这样的能力 , 使风险降至最低 。 ”
AI最终的目标是为人类谋福祉 , 而不是伤害人类 。 黄民烈教授对AIforSocialgood(AI赋能社会)感到非常期待 , 他尤其关注AI在社会连接、心理疏导、情绪支持方面的应用 , 这些方面能够产生更高的社会意义和价值 。
AI赋能整体精神心理行业也是黄民烈教授现阶段的工作重点 , 他为此创办了基于AI技术的精神健康数字诊疗科技公司聆心智能 , 通过NLP和大模型训练AI对话系统在共情、自我暴露、提问等方面的能力 , 用以解决人类的情绪、心理问题 。 这项工作有望缓解我国心理健康资源紧缺的状况 。
【谷歌AI人格觉醒靠谱吗?我们找大佬聊了聊,AI对话的风险与进化】相比于AI具备人格这样“遥遥无期”的科幻戏码 , AIforSocialgood距离人类社会更近 , 是AI界人士正在努力的方向 , 也更值得期待 。
- 谷歌警告运营商小心Hermit间谍软件
- 南极洲第二入口被发现?谷歌人为掩盖地点,真有秘密基地?(上)
- Pixel|60Hz屏+6G内存卖3000多元 谷歌Pixel 6a上架
- Pixel|第一款Android 13高端旗舰已在路上 谷歌Pixel 7 Pro参数曝光
- Google|谷歌为什么当初收购安卓后,不直接闭源收费呢?
- 谷歌为什么当初收购安卓后,不直接闭源收费呢?
- 华为|比尔盖茨的话应验了!断供打压没扳倒华为,反而刺激麒麟“觉醒”
- 程序员坚称AI「有人格」后,人们开始呼吁“AI的命也是命”
- Google|谷歌工程师跟AI聊出感情!他相信AI有意识,有感情,然后被停职了
- Google|自作孽不可活!拜登这波骚操作,可能要把苹果谷歌亚马逊全都爆了
