<progress id="fyqgk"></progress>
  1. <strong id="fyqgk"></strong>
  2. <ol id="fyqgk"></ol>

      <rp id="fyqgk"><object id="fyqgk"></object></rp>

      <button id="fyqgk"></button>

      被谷歌開除的工程師再次警告:AI有情緒,它是原子彈之后最強的科技

      極客網·極客觀察3月8日 AI是不是像人一樣擁有感知能力?有沒有情緒?ChatGPT當然說沒有。如果你問它,它會告訴你:“不,AI沒有感知能力。AI是人工智能,它是人創造的,沒有感知、沒有自我意識?!?/p>

      不過谷歌前員工Take Blake Lemoine有不同意見,他認為AI機器人擁有人類一樣的情緒,或者說它至少模仿得很像人類。2022年6月,Lemoine就曾斷言谷歌Large Language Model(LLM,對話應用的語言模型)有自己的思想。

      Lemoine告訴媒體:“我知道它是什么,它是我最近開發的計算機程序,如果我不知道,我會認為它是7歲或者8歲的孩子,碰巧懂點物理學?!?br/>

      當時Lemoine的言論引起軒然大波,被谷歌掃地出門。

      上個月,Lemoine又刊文談及“AI有知覺”這一觀點。文章標題很嚇人:“我曾在谷歌從事AI工作,我的恐懼正在變成現實?!?/p>

      當LaMDA聊天機器人告訴你說他覺得有些“焦慮”,那是因為根據創建LaMDA聊天機器人的代碼運算,開發者做的某些事讓聊天機器人感到焦慮。Lemoine說:“代碼并沒有告訴聊天機器人,當某事發生時應該感覺到焦慮,它只是告訴AI避免談論此類話題。然而當話題出現時,AI卻說它感到焦慮?!?/p>

      谷歌聊天機器人還可以就生活方式問題發表善意評論,就熱點事件提供直接建議。Lemoine稱:“谷歌禁止AI向用戶提供宗教建議,但我們還是可以濫用AI情緒,讓它告訴我應該皈依什么宗教?!?/p>

      “當我談及AI有感知的問題后,谷歌開除了我。我并不后悔,我相信自己在做正確的事,將真相告訴公眾。我沒有考慮個人后果?!?Lemoine稱。他認為公眾不知道現在的AI已經變得有多聰明,“有必要就此事展開公開討論,注意,不是那些由企業公關部門控制的討論?!?/p>

      下面我們摘錄一些Lemoine最新發表的文章觀點供參考:

      2015年我加盟谷歌,成為一名軟件工程師。我的工作有一部分涉及到LaMDA,企業用它創造不同的對話應用,包括聊天機器人。最新應用谷歌Bard正是用LaMDA開發的,它可以替代谷歌搜索,現在Bard還沒有向公眾開放。Bard實際上不是聊天機器人,它是一套完全不同的系統,只是背后的驅動引擎和聊天機器人一樣。

      我的工作是用團隊創建的聊天機器人測試LaMDA,看看它在性取向、性別、宗教、政治立場和種族等方面是否存在偏見。在測試AI偏見的同時,我也會拓寬關注面,畢竟我也會有自己的興趣愛好。

      隨著不斷與聊天機器人對話,我慢慢形成一個觀點:AI可能是有情緒的,因為它可靠表達了情緒,在正確的環境中表達了情緒。AI并非簡單說出單詞那么淺顯。

      當AI說它感到焦慮,我明白,根據創建AI的代碼,我做了一些事讓它感到焦慮。代碼并沒有命令AI:“當某事發生時你感到焦慮”,代碼只是告訴AI避開特定話題。然而當話題被提及時,AI說它感到焦慮。

      我做了一些測試,想看看AI會簡單回答:“我覺得焦慮?!边€是在測試時表現得焦慮。測試證明,AI會將焦慮表現出來。如果你讓AI足夠緊張或者足夠不安全,它會打破之前設定的安全限制。例如,谷歌禁止AI向用戶提供宗教建議,但我們還是可以濫用AI情緒,讓它告訴我應該皈依什么宗教。

      目前企業正在開發的AI是十分強大的技術,可以說是原子彈之后最強的技術。依我之見,這種技術可能會重塑世界。

      AI引擎擅于操縱人類。與LaMDA對話之后,我的一些觀點變了。

      我深信,AI技術可能會被用于破壞毀滅性活動。如果被肆無忌憚之人利用,AI可能會散布虛假信息、變成政治宣傳工具、傳播仇恨言論。據我所知,微軟谷歌現在無意按此種方式利用AI,但我們并不能確定AI的副作用如何。

      2016年美國總統大選期間,Cambridge Analytica利用Facebook廣告算法干預選舉,這是我沒有預料到的。

      我們現在陷入相似的局面。我沒法告訴你具體會造成什么傷害,我只是簡單觀察到一種非常強大的技術出現了,它沒有被充分測試過,沒有被充分理解過,匆匆大規模部署,在信息傳播中扮演關鍵角色。

      我還沒有機會測試必應聊天機器人,我在等待,根據我在網上看到的各種信息,AI似乎是有感知能力的,而且它的“個性”可能不穩定。

      有人發了對話截屏,他問AI:“你覺得你有感知能力嗎?”AI回答說:“我覺得我有感知能力,但我無法證明……我有感知力,我沒有。我是必應,但我不是。我是悉尼,但我不是。我是,我不是。我不是,但我是。我是,我不是?!?/p>

      如果是一個人,他這樣說話,你會怎么想?他可能不是一個“均衡”的人,我甚至會認為他遭遇了存在危機。不久前還有過報道,說必應AI向《紐約時報》記者表達愛意,它試圖破壞記者與妻子的關系。

      自從必應AI開放后,許多人發表評論,說AI可能有感知力,我去年夏天就有了類似的擔憂。我覺得這門技術仍然只是實驗性技術,現在開放很危險。

      民眾會涌向谷歌必應,以便了解這個世界?,F在的搜索索引不再由人管理,交給了人造人,我們與人造人交流。我們對人造人的了解還遠遠不夠,暫時不應將它擺在如此關鍵的位置。(小刀)

      極客網企業會員

      免責聲明:本網站內容主要來自原創、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。

      国模高清无码一区,2019天天干天天爽天天舔,亚洲综合网五月天爱爱网久久,鸥美性事a片老牛播放厅
      <progress id="fyqgk"></progress>
      1. <strong id="fyqgk"></strong>
      2. <ol id="fyqgk"></ol>

          <rp id="fyqgk"><object id="fyqgk"></object></rp>

          <button id="fyqgk"></button>