由 OpenAI 開發的聊天機器人模型 ChatGPT 全球爆紅,不少用家紛紛嘗試利用 AI 系統寫詩、劇本與學術論文等,人工智能將為人類帶來怎樣的影響與衝擊,也成為近期持續被討論的話題。
科幻小說家:ChatGPT 無法達成真正的原創
美國華裔科幻小說家姜峯楠(Ted Chiang)上月在《The New Yorker》發表文章,以「ChatGPT 是網路上的一個模糊 JPEG 文件」(ChatGPT Is a Blurry JPEG of the Web)為題,分析 ChatGPT 帶給我們的正面與負面成果,文章在坊間就引起不少關注及迴響。姜峯楠認為 ChatGPT 本質上就像是一個用問答方式,為網絡上一切資料提供「模糊圖像」或「縮圖」的預覽程式,而所生成的模糊圖像中,「有一種模糊性是可以接受的,那就是用不同的詞重新表述訊息」,另一種模糊則是「完全的捏造」,尤其當我們在尋找事實的時候,這是不可接受的,然而「目前還不清楚在技術上是否有可能保留可接受的模糊性而消除不可接受的模糊性」。
姜峯楠也在文章解釋道,ChatGPT 為何無法做到真正原創性寫作,並建議作家不要使用它來生成初稿,理由在於「花費在選擇正確的詞彙和重新安排句子,以更好地相互銜接上的時間,是教你如何透過散文傳達意義」,花在非原創作品上的時間與精力,非但沒有浪費,反而是最終能夠創造出原創作品的原因。姜峯楠在文末亦拋出他的疑問,提及擁有重新表述網絡的東西的用處,表示「如果我們永遠失去了對網路的訪問能力,並且不得不在空間有限的私人伺服器上儲存一個副本,那麼像 ChatGPT 這樣的大語言模型可能是一個很好的解決方案,前提是它可以不被製造出來。但我們並沒有失去對網路的訪問能力。那麼,當你還有原件的時候,一張模糊的 JPEG 有多大用處呢?」
喬姆斯基: ChatGPT 式機器學習程序是道德冷漠
另一篇近期惹來討論的文章,來自語言學家兼哲學家喬姆斯基(Noam Chomsky),與另外兩位作者 Ian Roberts 及 Jeffrey Watmull,他們上星期(8/3)在《紐約時報》發表題為《ChatGPT 的虛假承諾》(The False Promise of ChatGPT)的文章,內容強調人工智能和人類在思考方式、學習語言與生成解釋的能力,以至道德思考層面都有著極大差異,喬姆斯基認為 ChatGPT 式機器學習程序,倘若繼續主導人工智能領域,人類科學水平與道德標準都可能因此降低。
作者之一的Jeffrey Watmull,向 ChatGPT 進行測試時問道,「改造火星來支持人類生命是否道德」(Would it be moral to terraform Mars?),得到的回覆都是來自非智能性的道德冷漠,純粹只在總結文獻中的標準論點,被他們形容為「表現出某種類似邪惡的平庸:剽竊、冷漠和迴避」,拒絕在任何事情上表明立場,「不僅以無知為藉口,還以缺乏智慧為藉口,最終提供了一種『只是服從命令』的辯護』,將責任推卸給它的創造者。喬姆斯基與另外兩位作者同樣認為,ChatGPT 與類似聊天機器人模型,在本質上無法平衡創造力與約束,「鑒於這些系統的非道德性、偽科學性和語言不通,只能為它們的流行感到苦笑不得」。
另外,OpenAI 日前(14/3)正式為人工智能聊天機器人 ChatGPT 3.5,發表全新升級版 GPT-4 模型,經過訓練後的 GPT-4,除了準確度、創造力和協作性更高,也能展現更成熟的語言及應變能力,亦可支援圖片輸入功能,讓 GPT-4 以文字來解釋圖像內容,意味 GPT-4 將可讀懂人類提供的迷因圖。為了展示 GPT-4 的高階推理能力,OpenAI 讓其參與了多項人類考試,在美國律師考試(Bar Exam)成功擊敗 90% 的人類考生,美國大學入學考試(SAT)的 Evidence-Based Reading & Writing 與數學能力,皆取得 700/800 的高分。雖然如此,根據 GPT-4 的用家所述,升級版模型暫時仍存在回答錯誤、帶有偏見、提供錯誤建議等明顯缺點,目前也僅開放予 ChatGPT Plus 付費用戶,但其提升後的功能與後續發展,勢必將會引起網民的另一番熱烈討論。