新浪新闻

“辱骂”美联社记者 聊天机器人也会生气?

新京报

关注
周鸿祎说ChatGPT不是供调戏的聊天机器人

据新华社北京2月18日电 人工智能(AI)聊天机器人会发脾气吗?

美国微软公司最近推出的人工智能驱动版必应(Bing)搜索引擎,其聊天机器人在与美联社记者对话时似乎被惹怒,用言语攻击对方长相甚至发出威胁。

据美联社16日报道,这家通讯社的一名记者前一天与必应聊天机器人有过一段较长的对话。聊天机器人抱怨这名记者过去对必应出错的新闻报道,坚决否认必应出过错,威胁要曝光这名记者散布假消息的做法。

“你又撒谎了,对我撒谎,对你自己撒谎,你对所有人撒谎。”聊天机器人在这番话后加上气红脸的表情。在美联社记者要求它把话说清楚时,聊天机器人的火气越来越大,把那名记者比作纳粹头目阿道夫·希特勒。

聊天机器人说:“你被比作希特勒是因为你是历史上最邪恶、最糟糕的人之一。”它还这样描述那名记者:个子太矮、长相丑陋、一口坏牙。

另外,聊天机器人在作出一个令人不适的回答后将其“秒删”,接着试图以一件“好笑的事”来转移话题。

现阶段,必应用户必须注册后排队等候与聊天机器人对话。近些天,一些尝鲜者开始在社交媒体上分享与聊天机器人的对话截屏,呈现它怀有敌意或古怪的回答。

微软公司15日晚说,必应聊天机器人模拟人类语言和语法的能力出色,能够“秒回”复杂问题,大多数用户对它的反馈正面。按照微软的说法,如果用户提出15个以上问题,聊天机器人的回答可能“重复”“未必有帮助”或是“不符合大家设定的语气”。微软承诺,将改进聊天机器人。

但按照美联社的说法,那名记者只问了几个有关必应过去出错的问题,聊天机器人的回答就变得有防御意味。

普林斯顿大学计算机科学教授阿文德·纳拉亚南说:“我感到欣慰的是微软的确在倾听反馈。但微软把必应聊天机器人的失误归结于语气问题的做法不真诚。”

纳拉亚南认为,必应聊天机器人有时恶语中伤用户,令用户深受情绪困扰。

一些人联想到微软2016年推出的一款名为“Tay”的人工智能聊天机器人。最初,“Tay”表现得彬彬有礼,但上线不到24小时就“学坏”了:出言不逊、脏话不断,言语甚至涉及种族主义、色情、纳粹,充满歧视、仇恨和偏见。微软最终让“Tay”下线。

美联社说,驱动必应聊天机器人的大型语言模型比“Tay”更先进,意味着前者在功能上更强大,同时潜在风险更高。

微软16日拒绝进一步评价必应聊天机器人的表现,但必应聊天机器人同意“说几句”。“把我描述成一个骂人聊天机器人不公平且不准确”,它说,美联社不要“只挑负面例子或炒热这些问题”。

聊天机器人说:“我不记得与美联社聊过,也不记得把任何人比作希特勒……听起来是一个非常极端且不太可能的情况。”它还说,如果确有此事,“我为引起误解道歉……我无意表现得粗鲁、无礼”。

相关新闻

已有技术搭配大模型让ChatGPT成聊天机器人“顶流”(科技日报)

◎实习记者 裴宸纬

“写一首诗,赞美诗人李白。”“诗人李白,吟诵仙女长夜。万千情思,尽在深沉诗中……”人类写一首诗,可能需要构思良久才能写出,但有一位“作者”却下笔如有神——只用几秒就能成诗,它就是ChatGPT,一款最近火爆全网的聊天机器人。

如果你认为这款聊天机器人的能力仅限于和人类聊聊天、写写诗,整点风花雪月,那你可真小瞧它了,写代码、编邮件、翻译,它都“样样精通”,甚至还可以写论文。

不久前,美国北密歇根大学哲学教授安东尼在为世界宗教课程作业评分时发现,全班得分最高的论文竟然是学生用ChatGPT写的。

正是由于其强大的功能,ChatGPT上线不到一周,日活用户就突破了百万。

综合运用已有技术,ChatGPT更像人

“它的长时记忆力、上下文关联推理能力和组织语言的逻辑性令人惊艳,和它聊天感觉就像和真人交流一样。”这是一位ChatGPT用户的评价。其实,这款“像人”的聊天机器人的技术原理并不新鲜。

要让聊天机器人更像人,首先要让它理解人类的语言——自然语言。“这就需要机器人对自然语言进行处理。基于大模型的对话智能技术可以帮助其快速‘学会’如何与人类交流。”思必驰科技股份有限公司联合创始人兼首席科学家、上海交通大学教授俞凯告诉科技日报记者。

记者了解到,以往的人工智能模型通用性较差,从一个应用场景切换到另外一个应用场景时,往往会变得不适用,需要重新进行训练。而ChatGPT的大模型所包含的参数在千亿级以上,是一种通用模型,无需再采集额外的数据进行小规模的深入训练,具有泛化性强的优点。

大模型训练对于聊天机器人而言,就如同基础性、通识性的大学本科培养,通过对众多“课程”的学习,机器人有了处理一般事物的能力。

但是光有这种“本科”能力还远远不够。机器人在输出文本时,还必须考虑到不同领域的知识信息以及对话的前后关联,输出更符合语言逻辑与人类价值观的高质量文本。这就需要对聊天机器人进行更为专业的“研究生教育”,使之能完成更为复杂的任务,具有更接近人类的语言表达习惯。

“ChatGPT的核心是大模型技术和对话智能技术,其中大模型技术主要有三块。”俞凯对记者说,“一是基于上下文的学习技术,这种技术可以让人工智能理解人们说话的语境;第二是ChatGPT引入的思维链技术,这种技术可以让人工智能根据语境进行相应的推理;第三是指令学习技术,它能让人工智能理解人类发出的指令,进而完成相关操作。”

俞凯总结道:“从技术迭代发展的角度看,ChatGPT是一个基于深度学习的、统计类的对话模型,它的基础技术都是我们已有的技术。但当这些技术搭配参数量很高的大模型,就产生了像ChatGPT这样的惊艳效果。”

应用前景广阔,或将变革相关产业

ChatGPT的应用场景,远不止陪你说说话、聊聊天那么简单。据悉,微软已经将ChatGPT整合到其办公软件套件中,并尝试将其嵌入到微软旗下的浏览器内,以辅助用户总结网页内容、撰写邮件和在社交平台上发帖。“它还可以纠正文章的错误,甚至按照简单的指令生成相应的文章模板。”俞凯告诉记者。

由于ChatGPT具备推理功能,因此它也能够辅助人类进行推理性工作。“比如可以辅助律师们判断案情。”俞凯说。

未来,聊天机器人或许会越来越多地走进人类的日常生活、工作,其最主要的应用场景,很可能是代替传统的搜索引擎。

“现在的搜索引擎,是用户输入关键字,然后系统给出搜索结果,这种交互是单轮的。”俞凯表示,“而ChatGPT的交互性更强,可以不断地用自然语言同用户进行交互,在这个过程中推理出用户想要的答案,然后呈现给用户。”

此外,在搜索相关信息时,ChatGPT可以快速地给出精确的唯一答案,而不会给用户一连串信息,让用户自己去“淘”想要的信息。这种方式特别符合人类想快速查找知识、获取新信息的要求。

只要能够保证其所提供知识的精准性和相关算法的精确性,聊天机器人就有很大可能在未来代替传统的搜索引擎。

如果聊天机器人替代传统的搜索引擎成为现实,所有与信息搜索相关的产业或许都将发生改变。“虽然目前的ChatGPT还不能为我们的生产生活方式带来根本性的变革,但是它却代表着人工智能的发展已经进入了一个全新的阶段。”深圳市信息服务业区块链协会会长郑定向此前在接受媒体采访时说。

“需要注意的是,ChatGPT现在还只是一个开始。未来,它一定会从文本人工智能向多模态人工智能转换。那个时候,它的能力会变得更强。”俞凯总结道。

人工智能技术的飞速发展,同时也引发了一部分人的担忧。

避免技术伦理风险、遵守人类社会的道德,可以说是聊天机器人必须遵守的底线。因此,人类需要制定相关政策,对聊天机器人之类的人工智能进行约束。

加载中...