近期,麻省理工學院(MIT)的一項研究揭示了人工智能(AI)在處理否定詞,如“no”和“not”時存在的顯著短板,這一發(fā)現(xiàn)對醫(yī)療等關鍵領域的安全應用敲響了警鐘。
盡管AI技術日新月異,已能在診斷疾病、創(chuàng)作藝術和自動駕駛等多個領域展現(xiàn)卓越能力,但在面對否定表達時,卻顯得力不從心。MIT的研究團隊,攜手OpenAI與牛津大學,在博士生Kumail Alhamoud的帶領下,深入分析了當前主流AI模型,如ChatGPT、Gemini和Llama,在處理否定語句時的表現(xiàn)。他們發(fā)現(xiàn),這些模型往往傾向于忽視否定語義,而默認進行肯定關聯(lián)。
研究報告特別指出,醫(yī)療領域是這一缺陷可能帶來嚴重后果的典型場景。例如,AI可能會將“無骨折”(no fracture)或“未擴大”(not enlarged)等否定診斷誤解為肯定,從而引發(fā)誤診或治療不當。
問題的根源不在于數(shù)據(jù)量的不足,而在于AI的訓練機制。斯坦福大學的深度學習兼職教授Kian Katanforoosh指出,大多數(shù)語言模型依賴模式預測,而非邏輯推理。這導致AI在面對如“不好”(not good)這樣的否定表達時,仍可能因“good”一詞的存在而誤判為正面情緒。專家們強調,如果AI模型不具備邏輯推理能力,這類微妙卻致命的錯誤將持續(xù)存在。
Lagrange Labs的首席研究工程師Franklin Delehelle也表達了類似的觀點。他指出,AI擅長模仿訓練數(shù)據(jù)中的模式,但缺乏處理新情境或創(chuàng)新的能力。這限制了AI在面對否定表達時的準確性和靈活性。
為了改進AI在處理否定語句方面的表現(xiàn),研究團隊嘗試使用合成否定數(shù)據(jù)(synthetic negation data)進行模型訓練,并取得了一定的初步成效。然而,要準確捕捉和處理否定語句中的細微差異,仍然是一個巨大的挑戰(zhàn)。
Katanforoosh警告說,AI對否定的誤解不僅是一個技術問題,更可能引發(fā)法律、醫(yī)療和人力資源等領域的重大錯誤。他呼吁,解決這一問題的關鍵在于結合統(tǒng)計學習與結構化思維,提升AI模型的邏輯能力,而不僅僅是簡單地堆砌更多數(shù)據(jù)。
研究團隊還強調了跨學科合作的重要性。通過聯(lián)合計算機科學、語言學和醫(yī)學等領域的專家,可以更全面地理解AI在處理否定語句時面臨的挑戰(zhàn),并共同尋找有效的解決方案。
隨著AI技術的不斷發(fā)展和普及,其在醫(yī)療等關鍵領域的應用將越來越廣泛。因此,解決AI在處理否定語句方面的缺陷,對于確保AI技術的安全、有效應用具有重要意義。
未來,研究團隊將繼續(xù)探索和改進AI模型在處理否定語句方面的表現(xiàn),以期推動AI技術的進一步發(fā)展和應用。