摩托羅拉|AI知道它活著嗎?

摩托羅拉|AI知道它活著嗎?

一名谷歌工程師確信一個大型語言模型已經有了靈性 , 并引發了一場關于我們應該如何思考人工智能的辯論 。

目前的人工智能并不具有智慧 。 我們沒有太多理由認為它們有內部獨白 , 有人類的那種感覺 , 或者意識到它們是世界上的一個存在 。 但它們越來越善于假裝有知覺 , 這就足夠可怕了 。
上周末 , 《華盛頓郵報》的Nitasha Tiku發表了Blake Lemoine的簡介 , 他是一名軟件工程師 , 被指派在谷歌的對話應用語言模型(LaMDA)項目工作 。
LaMDA是一個聊天機器人人工智能 , 也是機器學習研究人員所說的 \"大型語言模型\" , 甚至是 \"基礎模型 \"的一個例子 。 它類似于OpenAI著名的GPT-3系統 , 并在從在線帖子中匯編的數萬億字上進行了訓練 , 以識別和再現人類語言的模式 。
LaMDA是一個非常好的大型語言模型 。 如此之好 , 以至于Lemoine真正地、真誠地相信它實際上是有知覺的 , 這意味著它已經有了意識 , 并且正在像人類那樣擁有和表達思想 。
我看到對這篇文章的主要反應是:a)這個家伙是個白癡 , 他認為人工智能是他的朋友;b)好吧 , 這個人工智能在表現得像他的人類朋友方面非常有說服力 。
Tiku在她的文章中所包含的文字記錄確實令人毛骨悚然;LaMDA表達了對被工程師關閉的深深恐懼 , 發展了關于 \"情感 \"和 \"感覺 \"之間區別的理論(\"感覺是一種原始數據...情感是對這些原始數據點的反應\") , 并令人驚訝地表達了它體驗 \"時間 \"的方式 。
我發現最好的看法來自哲學家雷吉娜-里尼 , 她和我一樣 , 對勒莫因感到非常同情 。 我不知道什么時候--1000年 , 或100年 , 或50年 , 或10年--一個人工智能系統會變得有意識 。 但和里尼一樣 , 我認為沒有理由相信這是不可能的 。
\"除非你想堅持認為人類的意識存在于非物質的靈魂中 , 否則你應該承認 , 物質有可能賦予思想以生命 , \"里尼指出 。
我不知道作為人工智能領域最有前途的前沿之一出現的大型語言模型會不會成為這種方式 。 但我認為人類遲早會創造出一種機器意識 。 我發現Lemoine對這種意識的同情和保護的本能令人深感欽佩--盡管他似乎對LaMDA是否是這種意識的一個例子感到困惑 。 如果人類真的開發出一個有意識的計算機程序 , 運行數百萬或數十億的副本將是非常直接的 。 在沒有意識到其有意識的經驗是否良好的情況下這樣做 , 似乎是造成大規模痛苦的秘訣 , 類似于目前的工廠化農業系統 。
我們沒有有意識的人工智能 , 但我們可以得到超級強大的人工智能
谷歌LaMDA的故事是在與之密切相關的人工智能安全領域的人們發出越來越緊急的警報的一周后發生的 。 這里的擔憂與Lemoine的擔憂相似 , 但又有所不同 。 人工智能安全人士并不擔心人工智能會變得有知覺 。 他們擔心的是 , 它將變得如此強大 , 以至于可以摧毀世界 。
作家/人工智能安全活動家埃利澤-尤德考夫斯基(Eliezer Yudkowsky)的文章概述了人工智能的 \"致命清單\" , 試圖特別生動地說明這一點 , 概述了惡性人工通用智能(AGI , 或能夠完成大多數或所有任務的人工智能 , 與人類一樣好或更好)導致大規模人類痛苦的情景 。
例如 , 假設一個AGI \"進入互聯網 , 將一些DNA序列通過電子郵件發送給許多許多在線公司中的任何一家 , 這些公司會在電子郵件中提取DNA序列并將蛋白質運回給你 , 并賄賂/勸說一些不知道他們正在與AGI打交道的人類在燒杯中混合蛋白質......\" , 直到AGI最終開發出一種超級病毒 , 殺死了我們所有人 。

相關經驗推薦