復旦教授從哲學角度看ChatGPT:或加劇人類“自欺”
中國青年報客戶端訊(劉玥 殷夢昊 中青報·中青網記者 王燁捷)近日,復旦大學慶祝建校118周年相輝校慶系列學術報告拉開帷幕。復旦大學哲學學院教授徐英瑾以“從人工智能哲學的角度看ChatGPT”為題登臺開講。徐英瑾從哲學角度分析了ChatGPT這一技術的主要弊端——將“常人”的意見予以全面的機械化復制,從而加劇人類“自欺”現象的泛濫。
徐英瑾是一名博士生導師,兼任中國知識論專業委員會副秘書長、中國現代外國哲學專業委員會理事等。他主持了國家社科項目“基于信息技術哲學的當代認識論研究”等多項國家級、省部級項目,主要從事人工智能哲學、英美分析哲學的研究。
“理解ChatGPT的本質并不困難。”徐英瑾介紹,ChatGPT的英文全稱是Chat Generative Pre-trained Transformer,其中Chat(聊天)一詞,在人工智能領域地位特殊,這源于圖靈測驗的一項發明——早已出現的“聊天盒(chatbox)”技術。而ChatGPT作為一種大型語言模型,是“傳統神經元網絡技術+深度學習技術”的進階版,通俗來說,就是通過數學建模建造出一個簡易的人工神經元網絡結構。
盡管ChatGPT的語言通順程度和機器翻譯水平令人贊嘆,但徐英瑾指出,人工智能的進步,實際上是統計學意義上的進步,是通過不斷迭代的大規模數據集和人工語料訓練后“野蠻投入”的結果,因此,縱使ChatGPT看到“路遙知馬力”能接上“日久見人心”,但它并不能真正理解中文詩詞的精妙內涵。
從海德格爾哲學的角度看,這種人工智能系統訓練方式將不得不把“常人”的意見加以建制化與機械化。徐英瑾說,從機器的視角看,一個正確的意見就是被大多數人所認可的意見,因此,少數“異類”提出的“離經叛道”之說在技術上就會被過濾掉。
“這需要我們的高度警惕。”徐英瑾說,假如ChatGPT技術在托勒密的時代就出現,哥白尼的“日心說”恐怕就會永遠被判定為錯誤答案。
而由于人工智能訓練與當下總是存在時間差,“無法面對未來”是ChatGPT這類人工智能的最大瓶頸所在。徐英瑾表示,過度依賴ChatGPT,可能會讓人喪失反思力與對未來的把握能力,陷入過度“自欺”的狀態。
人工智能未來到底走向何處?在他看來,要想真正走通人工智能道路,需要在結合節儉性算法與推理引擎的基礎上,兼顧哲學思維帶來的“破”與“立”,“大數據的訓練很難讓機器對語境形成精準識別,如何突破語料的偽裝,真正識別人類的精神內核,人工智能仍在路上。”
版權聲明:凡注明“來源:中國西藏網”或“中國西藏網文”的所有作品,版權歸高原(北京)文化傳播有限公司。任何媒體轉載、摘編、引用,須注明來源中國西藏網和署著作者名,否則將追究相關法律責任。