同路點評

谷歌微軟紛紛推出AI搜索聊天機器人

科技巨頭谷歌和微軟本月早些時候首次推出了通過人工智能運行的搜索引擎機器人,但兩者都已經遇到了問題。

它們將虛假信息作為真相發佈,腦筋混亂,甚至在某些情況下據稱行為反常。

讓我們來看看為什麼人工智能聊天機器人並不完美,你究竟能在多大程度上信任它們,以及為什麼專家們對一些人已經在試圖破壞它們感到高興。

谷歌的母公司Alphabet在本月早些時候一則視頻宣佈其聊天機器人巴德(Bard)包含了一個與事實不符的人工智能反應,隨後眼見其股價下跌。

巴德說,地球所在太陽系外行星的第一張照片是由詹姆斯·韋伯太空望遠鏡拍攝的,而美國宇航局證實這是不正確的。

當時,谷歌說這個錯誤凸顯出「嚴格的測試過程的重要性」,並說它正在將外部反饋與自己的評估相結合,以「達到質量、安全和基於真實世界信息的高標準」。

幾乎一周後,微軟的必應(Bing)也在其第一次演示中犯了錯誤。該機器人使用了ChatGPT聊天機器人的一些技術,該技術由OpenAI創建,目前大火。

同路點評:

人工智能聊天機器人有缺陷,因為它們仍在學習哪些信息最值得信任,但也因為它們在「舉起一面大鏡子」照出我們作為人類到底是誰。聊天機器人會出錯,就像人一樣,因為它們是根據我們產生、由我們社會產生的數據訓練的。他們使用大量的數據,這些數據的準確性參差不齊,代表性參差不齊,有時有偏見,有時代表性不足,還有數據上的差距。人們通過所謂的「破解」將人工智能聊天機器人推向極限,破解涉及到使用剝削性的文本說服聊天機器人暫時關閉它們的保障措施,從而允許它們潛在地透露有關其基本操作的信息或分享潛在的有害內容。

Copyright © 2022 SAMEWAY MAGAZINE

Exit mobile version