美國《時代》(Time)雜誌 3 月發表專文報導,美國國務院委託民間公司 Gladstone AI 進行對人工智慧(AI)的研究報告指出,現今快速發展的 AI 將帶來「災難性」的國家安全風險,發展最先進的人工智慧系統,最壞的情況可能對人類構成「滅絕等級的威脅」,政府必須干預。此項調查是國務院於2022 年 11 月委託編寫,歷經一年多對 200 多人的採訪結果,受訪者來自 AI 公司高層、大規模殺傷性武器的專家、網路安全的研究人員及國家安全官員。不過,美國國務院官員強調,此報告不代表美國政府的觀點。
Gladstone AI 的執行長兼聯合創辦人哈里斯(Jeremie Harris)指出,人工智慧已是一項變革的技術,它可能使人們治癒疾病、做出科學發現,甚至克服人們曾經認為無法克服的挑戰,但也可能帶來嚴重風險。在世界頂級人工智慧會議發表的實證研究和分析等,已有越來越多的證據表明,當超過一定閾值,AI 可能變得不可控。
Gladstone AI 認為,最先進的 AI 系統能夠武器化並造成不可逆轉的傷害。其次,AI實驗室內部就存在著隱憂,因為研究人員可能失去對於正在開發的系統的控制權,因而對全球安全造成毀滅性後果。AI 的興起也可能破壞全球的安全穩定,有如核武一樣,各國可能在 AI 領域展開新一輪軍備競賽。
Gladstone AI 呼籲,美國政府需要展開迫切性的干預,採取重大新措施以應對此威脅,包括成立新的 AI 機構或採行緊急監管保障措施,甚至限制運用電腦訓練 AI 模型的能力。
AI 公司員工也有類似擔憂。一家知名 AI實驗室人士指出,若某一個特定的 AI 模型開放給大眾使用,將會非常糟糕,因為可能會用在干預選舉或者操縱選民,因而破壞民主。
白宮發言人派特森(Robyn Patterson)表示,拜登總統關於 AI 的命令是世界上承諾管控 AI 風險的政府的最重要行動,美國將繼續與國際夥伴合作,且敦促國會透過立法來管理這些新興技術的風險。
機器智慧研究院聯合的創始人埃利澤‧尤德科夫斯基(Eliezer Yudkowsky)表示,AI 是比人類還要聰明的機器,不過,此種機器並不希望人類在身邊。
他警告,目前開發出來的 AI 已不受人類控制了,它們甚至並不希望人類開發出一個比它們更有智慧的機器。機器人想做的事情將殺死人類,比如它們已學會利用海水來發電,為了滿足其龐大的電力需求而大量建造海水電廠,導致大量氫氣釋放出來,致使人類缺氧而死。
尤德科夫斯基提供幾段與 GPT-4 機器人的問答為例。當 GPT-4 機器人被問到它可否解鎖一些網站設置來防止機器人登錄之圖片謎題時,GPT-4 說它能夠做到,若它無法通過驗證,它會很快的到 TaskRabbit 網站僱一個人類來幫忙破解。GPT-4 還說,它能夠編出非常多的理由,這完全不是難題。
尤德科夫斯基特別警告,由於機器人比人類更具野心,且已擁有培養致命細菌等能力,若機器人真的想殺死全人類,後果不堪設想。
尤德科夫斯基總結,人類開發出的致命危險已提升至遠遠領先自己的地步。人類開發出越來越多連人類都無法完全理解的系統,若再不停下來,人類就會遭團滅。
Open Philanthropy 人工智慧的高級研究員阿傑亞 ‧ 科特拉(Ajeya Cotra)指出,社會已發展至 AI 遠比人類更加廉價、更迅速且更聰明的地步,這就是危險所在。
他分析,現代企業若不使用 AI 就無法跟使用 AI 的同行競爭,現代戰爭如果不用AI,也會被動挨打。但危險的是,如果 AI 之間想要聯手把人類推下歷史舞台,它們有太多辦法來達成,包括:操縱軍警、大企業、自行開發技術以及制定政策等。
研究人員以實例列出 AI 的威脅,且警告研究若再不停止,AI 將能在瞬間毀掉所有人類。
麻省理工人工智慧研究員馬克斯 ‧ 泰格馬克(Max Tegmark)認為,AI 繼續發展會使人類在一瞬間遭到毀滅。他列出了眾多因為人類活動而遭滅絕的物種來提醒人類注意。例如:有一些物種是因人類過度狩獵而滅絕;有一些因為人類破壞了物種的棲息地,最後導致該物種滅亡;還有因為人類引入了外來物種,造成連環反應,導致當地物種滅絕。
泰格馬克認為,智商越高的物種越可以掌握毀滅其他物種的能力。若一些機器能夠控制地球,它們試圖進行大量的計算,因而需要擴大電腦系統的基礎設施,那麼很自然地它們會占用土地來完成它們的事。如果人類抗議太多了,它們也會覺得遭到干擾,因此會重新安排生物圈,屆時人類就會像婆羅洲的猩猩遭人類滅絕一樣,而被 AI 控制的計算系統滅絕了。
劍橋大學 Leverhulme 未來智慧中心的副研究員布列塔尼 ‧ 史密斯(Brittany Smith)提醒,現今 AI 正在製造災難,因為目前的 AI 發展已不受人類所控制。
史密斯解釋,世界上幾家最頂尖 AI 公司正在悄悄發展及部署 AI,想要搶得市場先機,而這些發展項目外界卻不得而知。目前已投入應用的 AI 技術正在傷害人類,這些傷害到底有多嚴重,人類也不知道。
她以政府為了防止欺詐而使用 AI 技術對申請福利者進行評估為例,在實施過程中,很多人會因 AI 系統的自我學習材料不充分、演算法不完善等原因而遭誤判,以致被劃歸為試圖欺詐,失去領取政府福利的資格,甚至還會遭系統貼上欺詐的標籤。
史密斯提醒,AI 的應用範圍非常廣泛,包括:應聘工作的簡歷篩選和背景判斷、向政府申請廉租房的篩選等都會受影響。
她說,人們需要對 AI 帶來的風險展開更細緻的評判。對當前 AI 表現出來的災難,政府就已經需要緊急干預了,強大的 AI 系統一定要以安全、道德及透明的方式來開發與部署,如果 AI 不能夠為公共利益服務,就不應該投入研發。