AI更“像人”,人該怎么看?
2025-06-12 09:46:08? ?來源:廣州日報 責任編輯:孫勁貞 我來說兩句 |
科學家證實,大模型能像人類一樣“理解”事物! 據《科技日報》報道,來自中國科學院自動化研究所等單位的科研人員首次證實,多模態大語言模型在訓練過程中自己學會了“理解”事物,而且這種理解方式和人類非常類似。相關研究成果在線發表于《自然·機器智能》雜志。 大模型學會了“理解”,這事該如何理解?一直以來,常有觀點認為,大模型只是一只會學舌的鸚鵡,雖然學得惟妙惟肖,但不懂自己在說什么,它們單純依靠統計概率預測下一個token(詞元)。事實,或許并非如此。記得去年底曾看過一篇報道,哥倫比亞大學進行的一項研究表明,隨著大語言模型技術的進步,這些模型不僅在性能上有所提升,而且結構上也越來越接近人類大腦。此次中國科學院的研究也證明,多模態大語言模型能夠自發形成與人類高度相似的物體概念表征系統,與人類大腦神經活動有著驚人的對應。 AI越來越聰明,這是事實。近年來,從DeepSeek R1到OpenAI o3,深度推理模型迅速發展。它們被稱為深度推理模型,就是因為能夠像人類一樣思考解決問題的過程。會思考,能“理解”,AI越來越“像人”,人該怎么看? 有人不以為意。因為AI的局限性,實在明顯。比如很多大模型“學富五車”、才思敏捷,卻連“9.11和9.9誰大誰小”都搞不清。有的還會“一本正經胡說八道”,東拼西湊、無中生有,被業界稱為“AI幻覺”?;诖耍芏嗳私o人工智能取了個“外號”:人工智障。 有人則如臨大敵。比如前不久,新華社援引英國媒體報道,美國一家研究機構公布了一系列針對各AI大模型的測試結果,其中提到,OpenAI的o3推理模型在得到“關閉”指令后,不僅拒絕執行,還篡改了代碼以免被關閉。AI擁有自主意識了?很多網友心頭一驚,甚至將其視為史無前例的“危險預警”。其實仔細看看相關報道,研究人員有意制造了倫理困境,AI的“抗命”是為了執行另一項指令,與所謂“自我意識”并無關系。 其實,從AI誕生起,人類的情緒就頗為復雜。尤其近年來,AI技術突飛猛進,一系列AI大模型驚艷登場,讓人嘖嘖稱嘆又惴惴不安。機器人之父圖靈曾告誡:盡管人類可以隨時拔掉機器人的充電器,但在這種物種面前,我們仍不得不保持謙卑。僅就當下而言,“AI覺醒”、對人類不利、妄想統治世界之類的擔憂,或許仍屬科幻范疇。但“AI配音”以假亂真,“AI造謠”張口就來,“AI換臉”愈演愈烈,“AI代寫”無所顧忌……AI不斷進階、愈發“像人”,意味著人類或許應該更加謙卑、更為警惕、更加清醒。 說到底,AI只是一種技術工具。AI的B面,同樣是人性的B面;要讓工具成為更好的工具,人就要做更好的人。 |
相關閱讀:
![]() |
![]() |
打印 | 收藏 | 發給好友 【字號 大 中 小】 |
信息網絡傳播視聽節目許可(互聯網視聽節目服務/移動互聯網視聽節目服務)證號:1310572 廣播電視節目制作經營許可證(閩)字第085號
網絡出版服務許可證 (署)網出證(閩)字第018號 增值電信業務經營許可證 閩B2-20100029 互聯網藥品信息服務(閩)-經營性-2015-0001
福建日報報業集團擁有東南網采編人員所創作作品之版權,未經報業集團書面授權,不得轉載、摘編或以其他方式使用和傳播
職業道德監督、違法和不良信息舉報電話:0591-87095403(工作日9:00-12:00、15:00-18:00) 舉報郵箱:jubao@fjsen.com 福建省新聞道德委舉報電話:0591-87275327