聊天機器人一直是人工智障的代表。
盡管從 GPT-3 開始,AI 生成的文本已經(jīng)能做到以假亂真,但這僅限于生成一段話。
在連續(xù)聊天中,AI 不會記得自己之前說過的話,就像下面這樣:
AI 這種前后矛盾的表現(xiàn),在人類看來就是沒有穩(wěn)定的身份和個性,好像聊著聊著換人了,也難怪一直被當作人工智障。
現(xiàn)在,F(xiàn)acebook AI 團隊終于推出 BlenderBot2.0,在 1.0 基礎(chǔ)上添加了長期記憶和即時搜索功能。
首先要記住自己說過的話:
記下自己說過的“我喜歡很多種音樂”,和“Kanye West 是我最喜歡的說唱歌手”這樣的信息,避免后續(xù)聊天中出現(xiàn)矛盾。
人類說的話也要記住,比如最喜歡的專輯:
最后,如果人類提到了 AI 不知道的東西怎么辦?
趁沒人發(fā)現(xiàn)悄悄去網(wǎng)上搜索,還能把搜出來的信息顯擺出來:
查到對方喜歡的藝人 Beyonce 的出生地,并用“我去過那里幾次”接上對話。
是不是像極了在群里聊天吹水時偷偷搜索的你?
如何告別智障
Facebook AI 去年發(fā)布的 BlenderBot1.0 就已經(jīng)做到了 94 億參數(shù),在單輪對話生成上取得了出色的效果。
這次升級的重點是一個檢索增強算法,能從過去對話記憶和互聯(lián)網(wǎng)上的資料中提取出能用在當前對話的信息。
對于訓練數(shù)據(jù),F(xiàn)acebook 在眾包平臺上發(fā)布了任務。
讓參與者在對話中扮演一個特定的人格,并隔幾小時、隔幾天對同一個話題進行討論,收集成多輪對話數(shù)據(jù)集。
AI 從網(wǎng)上搜索資料并用于聊天的能力,也是從人類那里學來的。
同樣是在眾包平臺上,這次的任務是讓一個人描述自己的興趣開啟話題,另一個人可以上網(wǎng)搜索并接上對話。
這樣 AI 不僅能學到人類在面對不同話題的適合搜索什么關(guān)鍵詞,還能學到最后什么樣的信息可以用在聊天上。
實驗結(jié)果上,BlenderBot2.0 對之前對話內(nèi)容的使用率提高了 55%,在對話中的事實一致性提高了 12%,而人類評估員打出的分數(shù)提高了 17%。
能上網(wǎng)搜索信息還讓 AI 能夠參與人類世界中最新的話題,比如談論新上映的電視劇。
如果和 BlenderBot1.0 聊起今年新片《旺達幻視》,他只能說我沒看過,這天就聊死了。
Blender2.0 就可以搜索后說出片中最喜歡的角色是誰,讓人更有把對話繼續(xù)下去的欲望。
AI 的記憶不再靜止于它完成訓練的那一刻。
LeCun 點贊,馬斯克擔憂它的三觀
三巨頭之一的 LeCun 第一時間轉(zhuǎn)發(fā)了 BlenderBot2.0 并評價為“首個能對任意話題 Hold 住多輪對話的聊天機器人”
馬斯克所擔心的,是 AI 從開放互聯(lián)網(wǎng)上獲取信息很快會變得三觀不正。
他舉的例子是微軟推出的 Tay 機器人在 16 小時左右就被網(wǎng)友聊成了納粹支持者,最后被迫下架。
對于和 AI 討論“最喜歡的作品”這回事,有人表現(xiàn)出了不信任:
AI 不會喜歡某個作品,只是自動把最流行的作品當成最好的,和網(wǎng)上追逐熱點的大多數(shù)人一樣。
有人看出了潛在的隱私風險:
你們說讓 AI 上網(wǎng)搜索,不會是在 Facebook 上搜索我發(fā)的帖子吧。
如果你感興趣,可以到 Facebook 的 Parlai 平臺下載模型和它聊聊看。
關(guān)鍵詞: Facebook AI團隊 BlenderBot2 0 長期記憶