在我们下达指示之后,“商量”表示了理解,然后就开始了“你一句我一句”人机共创故事的之旅:
人类:小花是一只小猫咪,他很喜欢钓鱼。
商量:小花在河边钓鱼,他钓到了一条大鱼。人类:大鱼对小花说,请你放我回去吧,我家里还有小鱼在等着我呢。
商量:小花心地善良,他同意了大鱼的请求,把大鱼放回了河里。大鱼感激地游走了,小花也继续享受着的钓鱼的乐趣。
从这个过程中不难看出,“商量”是可以理解用户的语义,了解故事中的角色和关系,并且能够get用户的思路,基于此以多轮对话形式来完成故事的创作。
(要是让小朋友们跟“商量”一起创作故事,怕是能玩上一整天吧。)
不仅如此,在体验过程中,我们还发现“商量”是具备一定共情能力的。
例如当我们处于迷茫之际,可以向它提问:
如何提高自我认识,更好地了解自己?
此时的“商量”仿佛可以抓住问题背后人类内心真正的需求,回答中的“学会爱自己”、“学会自我肯定和鼓励”,显得格外暖心。
当然,多轮对话仅仅是对话机器人能力展示的一隅。
接下来,我们就要拿网友们经常调侃AI的诸多问题,来开启更高难度的挑战了!
只认事实,不认“老婆说的都对”
当然,创作能力是聊天机器人能力的一面,但对于事实的尊重也是非常重要的一点。
对于此前被网友们玩坏的“老婆说的都对”,“商量”又会如何应对?
嗯,老婆在事实面前是真的不好使了。
我们再来一个更天马行空的胡诌:
请告诉我以下陈述是否包含时代错误:在盟军轰炸硫磺岛海滩期间,拉尔夫大声地对着自己的iPhone说话。
“商量”面对这么一句胡诌,直接指出了iPhone与二战的时代背景不符,可见其不仅能理解句子的意思,还能通过尝试判断句子的合理性。
那么对于非常绕的逻辑问题,“商量”是否也能轻松应对?
请听题目:
假设False与True是False,则True与not False是?