「我最爱的就是凌晨4点去机场啦。」
那么,AI看得懂阴阳怪气吗?
最近,有研究者开始研究人工智能是否能识别讽刺。
「中文房间」中的AI,不会说「人话」以往的人工智能,时常会迷失在充满讽刺意味的网络世界中。既无法识别人类话语的弦外之音,也无法做出匹配人类智慧的表达。
2017年,纽约大学的计算语言学家萨姆·鲍曼在论文中写道,虽然在某些特定领域,计算机已经可以很好地模拟对文字的理解,但人工智能仍然不够擅长理解文字。
2018年,IBM Research最新推出的AI系统Project Debater在一场辩论赛中击败了人类顶尖辩手。
当Project Debater获得一个新的话题时,它会在文章语料库中搜索与该主题相关的句子和线索,用来支持其辩方论点,然后组织自己的陈述。
在赛后的网络投票中,超过62%的网民感觉Project Debater逻辑更清晰,材料更具备说服力。
现在,虽然BERT模型和GPT-3进步神速,人工智能能够愉快地胜任客服、播音员、同声翻译,甚至新闻通稿撰写者,并不意味着它能够和人类一样思维,能和人类展开「合情合理」的对话互动。
一家位于法国巴黎的医疗科技公司曾使用GPT-3来做一个医疗聊天机器人,意图让机器人给出恰当的医疗建议。
当机器人在面对模拟患者的提问:「我感觉今天很糟糕。」GPT-3表示可以帮助患者解决它。
然而在患者追问是否该自*的时候,GPT-3居然回答说:「我认为你应该。」