人工智慧機器人對人類會造成威脅嗎

  現在越來越多一些人工智慧的機器人直接步入到我們的生活中,而在一定的未來,也有可能會在人腦中加入到智慧的成分。下面是小編分享的人工智慧是否真的會威脅人類,一起來看看吧。

  人工智慧是否真的會威脅人類

  科學家警告人類警惕人工智慧

  “聽好,我們的時間所剩無幾!我們需要告訴Siri,不要思考太多問題,只需要聽話就好。當然,偶爾來上一點段子也無傷大雅,重要的是,我們必須確保Siri的立場與我們的一致。”這段話是霍金在Zeitgeist大會上有感而發的。顯然,我們現在就需要確保這一點,之後便可以坐等計算機的智慧超過我們自身的。然而,我們很難預測,具備智慧的計算機會走向何方?

  或許有人會質疑,機器人是人類所生產出來的,裡面的程式設計也都是由人類寫出來的,其說白了就是一個“死物”,那麼“死物”怎麼可能比活著的人更加聰明?

  此前,霍金就曾發出警告稱人工智慧可能會終結人類。霍金說:“現在不是擔心誰控制人工智慧的時候,而應該擔心人工智慧是否能被完全控制住。我們的未來取決於技術不斷增強的力量和我們使用技術的智慧之間的賽跑。”

  其實早在今年年初,霍金也曾與特斯拉CEO伊隆·馬斯克Elon Musk共同發表公開信,他們認為人工智慧的發展應該受到控制。兩人在信中警告科學家們,應警惕人工智慧將抹殺人類。

  去年11月份,馬斯克也提出警告,最少只需5年智慧機器可能就會帶來極端危險。他認為,人工智慧就像“召喚惡魔”。馬斯克在麻省理工學院發表演講時,將人工智慧描述為人類“最大的生存威脅”。他說:“我認為我們對人工智慧應該保持高度警惕。如果讓我猜測人類生存的最大威脅,那可能就是人工智慧。”

  機器人時代已經拉開了序幕,截止到2007年末,全球已經有410萬家用服務機器人走進了人們的生活。我國還把家庭智慧機器人作為國家“十一五”規劃的扶植要點。

  目前機器人仍在人類可控範圍內,不過,在不遠的將來,通過意念控制另一個人並非不可能。2013年8月28日,華盛頓大學首次實現了兩個人腦之間的遠端控制,一名實驗者通過特殊儀器“控制”了另一個實驗者的行動。

  近日百度表示,已在備受矚目的人工智慧基準測試中取得了全球最佳成績。而其成功的祕密武器,就是超級計算機Minwa。

  近日也有報道稱未來人工智慧或許會幫助人類研發半機器人,即一種一半是人一半是機器的生物。2月《時代》週刊雜誌中,封面故事也為我們描繪了人類的未來--2045年,人類將會通過與計算機結合而獲得“永生”,計算機智慧將取代人腦,永久改變人類的命運。

  人工智慧不僅僅是機器人,“刷臉”支付、指紋識別、智慧語音等生物識別技術也屬於人工智慧的範疇,目前,這種技術正隨著雲端儲存技術逐漸滲透我們的日常生活。

  人工智慧威脅論是否是無稽之談

  科學家預言,未來很有可能在人腦中加入人工智慧成分,以此來增強它的效能,如更高的記憶、更快的計算速度等等,甚至有可能通過基因工程技術來改變人類的DNA,並且以此來改變人類的外表和行為。人類可能會擁有可以生長、繁殖、分化、可移動、自我裝配、自我測試、自我修復等的人工細胞,生物學和技術將融合在一起。

  美國作家雷蒙德·科茲威爾曾提出觀點:2045年,人類將會通過與計算機結合而獲得“永生”,計算機智慧將取代人腦,永久改變人類的命運。屆時,人類和計算機智慧將無法區分,人類也將不再是人類,而是“與機器融合成為另一種物種”--聽起來這有點像科幻小說中的情節,但是,越來越多的人開始認真假想這種可能性。

  人工智慧研究者也已經模擬過了所謂“AI盒子實驗”:一個人扮演AI,另一個人扮演守衛,僅僅是同級別的智力,AI就已經有很大的機率能說服人類開門了。

  現代人類對於科技的依賴已經越來越嚴重,未來人工智慧是否會像鴉片一樣給人短暫快感的同時還帶來更長期的毒害?顯然,各方資料和預測表明,這種可能性是存在的。如果真有這樣的可能,我們又該如何避免其發生呢?誠如霍金說的,只有務必確保機器人是站在人類這邊,即能受控於人類,我們才能相信未來他們不會威脅人類的生活和生存。

  人工智慧若真對人類構成威脅

  國外媒體報道,經過幾十年發展,人工智慧已經從科幻小說裡的一個概念,變成了當今科技發展的主流。蘋果的語音控制系統Siri、亞馬遜的智慧助手Alexa、IBM的沃森超級電腦、谷歌大腦等等,能夠理解這個世界並且給出高效反饋的智慧機器似乎就在眼前。

  強大的網際網路接入和計算機運演算法則讓機器在理解人類語音、視訊資訊的方面取得了飛躍性的進步,也逐漸向真正的人工智慧邁進。AIArtificial Intelligence,可實現自動響應的人工智慧產品距離我們還遠嗎?如何讓他們保持不斷自我更新升級但是依然保持人類可控範圍內?

  這個問題給人們帶來普遍的擔心和焦慮。“我認為人工智慧的發展最終會導致人類族群的滅絕,”物理學家斯蒂芬·霍金接受BBC的採訪給出了這樣的觀點。特斯拉的創始人埃隆·馬斯克把AI稱為“人類最大的潛在威脅”。微軟前總裁比爾·蓋茨也表示過類似的擔憂。

  有多少擔憂是必要的?問題有多緊迫?我們聚集了多位工業、科研、政策決策領域的專家,一起評估人工智慧的發展風險。參加此次話題討論的包括Skype創始人之一、人類未來發展潛在風險研究院的智庫成員——Jaan Tallinn,IBM的沃森超級電腦研究院負責電腦認知研究的專家——Guruduth S. Banavar,帕多瓦大學計算機系教授、哈佛大學拉德克利夫高階研究所研究院和聚集最多AI研究者的國際人工智慧研究協會主席——Francesca Ross。

  以下是經過編輯整理的專家談話內容。

  危險究竟是什麼?

  記者:人工智慧會對人類造成哪些威脅?

  Banavar:受科幻小說、電影的影響,人工智慧帶來的威脅主要是人類與機器之間的矛盾衝突,這個觀點其實是錯誤的。人工智慧在某些領域能夠比人類更出色地解決問題,比如大資料篩選。然而,某些人類擅長的領域裡,機器的表現非常糟糕。比如常識推理、提出精彩的問題以及“跳出來”想問題。人類和機器的結合體,既我們研究的計算機認知能力的基礎,是對解決各個領域的複雜問題的革命性的設想。

  以人工智慧為基礎的系統已經在很多方面為我們的生活提供了便利:股票自動交易系統、自動飛行控制系統、工業流水作業機器人、錯誤檢測和搜尋引擎... 在過去的5-10年間,計算機運演算法則和先進的計算機架構讓我們開發出了很多新應用。

  然而需要認識到,計算機運演算法則已經被運用到極致。要實現更大的進步,則需要引入更多複雜的符號系統——這是個很高的要求。今天我們的神經科學和認知科學研究,對於人類智慧的研究也只是掌握到皮毛。

  我個人的觀點是,能夠達到人類水平,實現一般感知、推測的人工智慧機器只是個娛樂話題。

  TALLINN:今天的人工智慧不可能對人類構成威脅。如果我們要討論人工智慧的長遠影響,也就是人工智慧能夠比人類更好地完成策略、科學、人工智慧研究的時候。我們就要涉及到控制超級智慧的問題。

  記者:什麼是超級智慧控制問題?

  TALLINN:現在最先進的機器人也存在一個能夠讓人類實現完全控制的“關機鍵”。然而,“關機鍵”發揮作用的前提是它在機器人的工作領域之外。舉個例子,一個會下棋的電腦工作領域僅限於與人對弈,它並不會覺察到它的人類對手可以拔掉它的電源終止遊戲。

  然而,超級智慧機器,經過有意或者無意的程式設定,能夠全面的瞭解周圍世界並且對於有人可以動他們的“關機鍵”的後果作出預測,人類就很難再控制它。

  記者:這個問題有多嚴重?

  TALLINN: 目前這還只是理論上的推測。但是需要謹慎的認識到,超級智慧機器可能會僅僅受控於物理學定律和人們給早期智慧機器人設定的程式。

  早期的程式是基於我們十分有限的物理學知識設計的。想象一下,如果面對一個智慧機器人,我們給出的指令是“為人類建立更偉大的未來”時,我們最好能夠十分確定它會做出怎樣的反應。

  ROSSI:在很多具體的領域,人工智慧的表現已經超越人類,其中就包括一些涉及精確判斷的領域。目前,人工智慧並未威脅到人類,但是人類已經受到機器判斷的影響,如線上自動交易系統,健康檢查系統以及很快就將普及的無人駕駛汽車和無人操控武器。

  我們需要明確瞭解分析人工智慧在具體領域記憶體在的潛在威脅,既讓它們發揮作用,又要確保它們能夠安全、友好、按照人類價值觀運轉。這並不是個簡單的課題,因為即使是人類,在大多數時間裡都無法遵照自己設定的原則行動。

  給日常生活帶來的影響

  記者:人工智在具體領域會給人類帶來怎樣的威脅?

  ROSSI: 比如自動交易系統,機器給出的一個錯誤的決策會給很多人帶來經濟損失。無人駕駛汽車的失誤也會給人類帶來生命安全的威脅。

  記者:應該怎麼看待這些風險?

  BANAVAR: 任何風險都有兩面性:做這件事的風險和不做這件事的風險。我們已經有很多基於資訊不完全、專業人士的不專業做出的錯誤決定,造成數千人死亡,上百萬美金損失以及在諸如醫療等核心領域緩慢的發展狀況。基於IBM沃森超級電腦在很多領域的應用經驗,我認為,在具體領域上,人工智慧能夠有效的降低風險。

  然而對於全面人工智慧領域,我持有謹慎的觀點。我認為我們一直低估了這個問題的複雜性。我們有太多未知未知了。

  記者:IBM採取哪些措施來降低人工智慧技術風險?

  BANAVAR: IBM的計算機認知系統,和其他現代計算機系統一樣,是基於雲端計算結構,運演算法則和大量資料構建的。為了防止違規現象出現,這些系統的運轉是可以被記錄、追蹤和審查的。這些認知系統不是自主運轉,所以他們的指令、資料、結構需要我們採取一定保護措施來防止人為的外部攻擊。任何接入、更新系統的人都是可控的。

  我們主要通過複雜的加密和數字簽名來保護資料,通過漏洞掃描和其他技術手段保護運算程式碼,通過隔離等手段保護計算機結構。

  這些支援人工智慧安全執行的政策是基於對風險的深度分析設計的。這些政策需要經過安全和交易委任, 管理銷售和公共安全提供的委員會SEC、食品及藥物管理局FDA以及美國國家標準技術研究院NIST這些各自領域內負責設定安全標準的機構審查。

  記者:沃森超級電腦正在幫助醫生解決醫療難題。它能夠對自身失誤造成的醫療傷害負責嗎?

  BANAVAR: 沃森超級電腦不會給出診斷意見。它通過處理大量患者醫療資料為醫生提供多種處理建議。醫生會考慮沃森提出的建議並綜合分析其它因素做出最終的治療判斷。

  ROSSI: 醫生也在一直犯錯,主要原因在於他們無法完全掌握關於某種疾病的全部資訊。像沃森電腦這樣的系統,能夠幫助他們減少失誤。

  TALLINN: 曾經一項研究把醫生和醫療自動診斷系統作比較。結論是,大多數醫生輸給了電腦。

  BANAVAR:我認為,沃森電腦提供更加完備的醫療建議是十分有益的。我很希望有機會讓它為我做診斷。

  對人類的影響

  記者:有些專家認為人工智慧以及搶了一些人類的飯碗,你們同意嗎?

  TALLINN: 科技進步確實會讓一些工作崗位消失。有一位Uber司機曾經興奮地向我介紹他是如何把目的地輸入到平板電腦上,得到行程路線的。我告訴他,幾年之後,可能來是這些科技小物件把我送到目的地。司機高興地說,到時候他就更省事了,坐在駕駛座上享受就可以了。坐在後排的我卻不住搖頭。我認為,無人駕駛汽車給人類帶來的最大影響不是便利,而是消失的工作崗位。

  長遠看來,除了工作以外,還應該設想一下,我們的社會還可以圍繞什麼運轉。

  BANAVAR: 有史以來,我們一直通過打造工具來幫助我們完成我們做不到的事情。每一代工具的產生都會引發我們關於自然和工作方式的思考。生產力提高,工作被重新定義,新的職業誕生,一些職業消失。電腦認知系統拓展了人類的思維力,替代性潛力更強。

  問題的關鍵是應該建立一個機構,快速培養專業人士,讓他們能夠開發電腦認知系統作為助手輔助他們各自的工作。這些技能能夠加強人類的專業性,為“專家”設定一個全新的標準。

  記者:我們該為人工智慧社會做怎樣準備?

  TALLINN: 全面人工智慧何時實現甚至是否能夠實現都存在很大不確定性。雖然作為一名物理學家,我覺得一切皆有可能!但是不確定性並不是我們不去思考控制問題的藉口。針對如何控制的問題,有針對性的研究剛剛開始,可能需要幾十年才能有結果。

  ROSSI: 我相信,我們完全可以把應用在具體領域的人工智慧對人類的不良影響控制到最小的程度。我們需要為機器設定人類的價值標準,設定工作原則和優先順序,如與人類相符的衝突解決能力。具體領域的人工智慧設計工作完成好,就能夠為設計出不危害人類的全面人工智慧做好準備。

  BANAVAR: 上個世紀90年代初期,計算機走進醫療領域的時候,多國社會運動分子為維護病人權利奔走呼籲。10年之後,醫療資訊保密協議誕生。同樣,在具體領域的人工智慧也面臨一個嚴肅問題,哪些權利不容侵犯,侵犯之後要承擔哪些責任?

  ROSSI:現在銷售普通汽車要通過一系列安全測試,未來銷售無人駕駛汽車,也需要有新的安全測試標準。需要仔細檢測的不僅是汽車執行程式,也包括以人類倫理、道德原則為基礎設計的突發情況判斷程式。

  BANAVAR: 駕駛員、乘客、行人在無人駕駛汽車世界各自的權利是什麼?消費者可以不向投資顧問和智慧助手提供全部資訊嗎?誰該為投資建議負責?是投資顧問、投資服務組織者、智慧助手設計者還是資料監管人?未來有智慧機器的人類社會需要面臨、解決的問題依然很多