久久国产乱子,九九九九在线精品免费视频,日本福利一区,亚洲理论a中文字幕在线,欧美美女视频图片,杨幂最新视频,朝国美女视频

機床網(wǎng)
我們該擔心人工智能嗎?聽聽17位思想領袖怎么說
2017-04-01 16:23:32

    人工智能的技術進步,引發(fā)了人類對未來的擔心。針對“我們應該對人工智能懷有怎樣的擔憂?”這個問題,編者總結了17位思想領袖的觀點,但他們也沒有對該問題形成共識。


    以下就是他們的觀點:

  ▌認真對待人們對人工智能的恐懼

  向機器超級智能的轉變事關重大,這一過程中可能出現(xiàn)的嚴重錯誤應該引起我們的重視。因此,應該鼓勵數(shù)學和計算機科學領域的頂尖人才研究人工智能安全和人工智能控制問題。——牛津大學人類未來學院院長尼克·博斯特羅姆(Nick Bostrom)

  如果人工智能影響了俄羅斯黑客技術、英國脫歐公投或美國總統(tǒng)選舉,或者促成了某種使得人們不再根據(jù)自己的社交媒體資料投票的宣傳活動,抑或成為了一種社會科技力量,促進了社會財富的不平等,并像19世紀末、20世紀初那樣引發(fā)政治極端化,最終促成兩次世界大戰(zhàn)和經濟大蕭條,那么我們就應該深懷憂慮。

  這并不表示我們應該恐慌,而是應該努力避免這些危害。——巴斯大學計算機科學教授、普林斯頓信息技術政策中心成員喬納·布雷森(Joanna Bryson)

  我現(xiàn)在認為最有可能的失敗模式是雙重的:一方面,隨著越來越多的知識和技能被機器掌握,并通過機器傳播,人類在沒有真實需求的情況下導致學習動機逐步降低,從而令人類社會逐步衰落;另一方面,我還擔心對智能惡意軟件缺乏控制,或者惡意使用不安全的人工智能技術所引發(fā)的惡性后果。——加州大學伯克利分校計算機科學教授斯圖爾特·羅素(Stuart Russell)。

 
▌但也別反應過度

  人工智能令我頗為興奮,我絲毫沒有擔憂。人工智能將會把人類從重復、無聊的辦公室工作中解脫出來,讓我們有更多時間開展真正有創(chuàng)意的工作。我已經迫不及待了。——斯坦福大學計算機科學教授塞巴斯蒂安·特龍(Sebastian Thrun)

  我們更應該擔心的是氣候變化、核武器、抗藥病源體、保守的新法西斯主義政治運動。應該擔心在自動化經濟中機器人取代的勞動力,而不應該擔心人工智能會奴役我們。——哈佛大學心理學教授史蒂芬·平克(Steven Pinker)

  人工智能有望給社會帶來重大福利。它將重塑醫(yī)藥、交通以及生活的方方面面。只要有能力影響眾多與生活息息相關的領域,任何一項技術都將得到政策的關照,以便充分發(fā)揮它的作用,并給予一定的限制。徹底忽視人工智能的危險是愚蠢的做法,但從技術角度講,把威脅列為首要擔憂的思維模式恐怕并非上策。
——普林斯頓大學計算機科學教授瑪格麗特·馬敦諾西(Margaret Martonosi)

  現(xiàn)在有的人擔心人工智能可能催生邪惡殺手,但這就像擔心火星上的人口過多一樣?;蛟S有朝一日的確會出現(xiàn)這種問題,但人類現(xiàn)在連登陸火星都沒有做到。這種杞人憂天完全沒有必要,這反而令人們無法關注人工智能引發(fā)的更嚴重的問題——那就是失業(yè)。——前百度副總裁兼首席科學家、Coursera聯(lián)席董事長兼聯(lián)合創(chuàng)始人、斯坦福大學兼職教授吳恩達

  人們對人工智能懷有恐懼和焦慮是可以理解的,而作為研究人員,我們有責任意識到這些恐懼,并提供不同的視角和解決方案。我對人工智能的未來很樂觀,認為它可以促使人類和機器共同為我們創(chuàng)造更好的生活。——麻省理工學院計算機科學和人工智能實驗室主任丹尼拉·魯斯(Daniela Rus)

  人工智能背后的人類比人工智能更可怕,因為與各種被馴化的動物一樣,人工智能的目的是服務于它的創(chuàng)造者。朝鮮掌握人工智能與該國擁有遠程導彈一樣可怕。但也僅此而已,電影《終結者》里面那種由人工智能顛覆人類的情景只是癡心妄想。——喬治·梅森大學經濟學教授布萊恩·卡普蘭(Bryan Caplan)

  我對所謂的“中間階段”有些擔憂,在這個階段,無人駕駛汽車會與人類駕駛員共用道路……可一旦人類駕駛員停止開車,整體交通就會更加安全,受到人類錯誤判斷的影響將會降低。

  換句話說,我擔心的是科技發(fā)展過程中的成長的煩惱,但探索和推動技術進步這是人類的天性。與焦慮和擔憂相比,我內心更多的是激動和警惕。——紐約大學計算機科學教授安迪·尼倫(Andy Nealen)

  毫無疑問,隨著人工智能繼續(xù)進步,它將極大地改變我們的生活方式。這可以帶來無人駕駛汽車等技術進步,還可以從事很多工作,從而解放人類,讓我們可以追求更有意義的活動?;蛘?它可能創(chuàng)造大量失業(yè),形成新的網(wǎng)絡漏洞。復雜的網(wǎng)絡攻擊會破壞我們每天通過互聯(lián)網(wǎng)吸收的信息的可靠性,并削弱全國性和全球性基礎設施。——亞利桑那州立大學Origins Project項目主任勞倫斯·克勞斯(Lawrence Krauss)

  人工智能是一項非常獨特的技術,很容易以此為基礎在科幻小說里設想恐怖的場景,例如人工智能奪取了地球上所有機器的控制權,然后奴隸人類。這種概率不大,但人們的確很擔心人工智能可能會在人類不知情的情況下采取某些行動。人們因此十分擔心這項技術可能引發(fā)意外后果。

  的確應該認真考慮這些后果可能是什么,考慮我們應該如何應對這些問題,但又不能阻礙人工智能的發(fā)展進步。——加州理工學院宇宙學和物理學教授肖恩·卡羅爾(Sean Carroll)

 
▌人工智能可能取代很多工作

  我擔心,隨著越來越多的細分領域使用機器來完成各種任務,就業(yè)就會受到影響。(我不認為人工智能與其他各種技術存在本質的差異——它們之間的邊界很武斷。)我們能否通過創(chuàng)造新的就業(yè)適應這種趨勢,尤其是在服務領域以及官僚領域?或者,我們是否會為不工作的人支付薪水?——紐約大學計算機科學教授朱利安·托格流斯(Julian Togelius)

  人工智能不會殺死或奴役人類。它會在我們尚未想到應對措施之前消滅某些崗位。白領工作也會受到影響。最終,我們會適應這種趨勢,但任何重大的科技變革都不會像我們期望得那么一帆風順。——喬治·梅森大學經濟學教授泰勒·科文(Tyler Cowen)


▌如何為人工智能做好準備

  整個社會需要為某些問題做好準備。一個關鍵問題就是如何為就業(yè)的大幅減少做好準備,因為未來的人工智能技術可以處理很多日常工作。另外,我們不應該擔心人工智能“過于聰明”,反而應該擔心最初的人工智能技術不像我們想象得那么聰明。

  早期的自動化人工智能系統(tǒng)可能犯一些多數(shù)人類都不會犯的錯誤。因此,必須教育社會,讓他們意識到人工智能和機器學習技術的局限和隱含偏見。——康奈爾大學計算機科學教授巴特·塞爾曼(Bart Selman)

  關于人工智能,有四個問題需要擔心。第一,有人擔心人工智能對勞動力市場構成負面影響??萍家呀洰a生了這種影響,預計未來幾年還將更加嚴重。第二,有人擔心重要決策將由人工智能系統(tǒng)來完成。第三,自動化致命武器系統(tǒng)也是一大擔憂。最后,“超級智能”也存在一些問題:人類有可能失去對機器的控制。

  與另外三個眼前的擔憂不同,超級智能風險主要還存在于新聞報道之中,短期并未構成威脅。我們有充分的時間深入評估此事。——萊斯大學計算機工程教授摩西·瓦迪(Moshe Vardi)

  我們不能將人工智能的進步定性為違法行為,否則那些違反規(guī)定的人就會擁有巨大的優(yōu)勢,而此人的行為將被視作違法。這不是好事。我們不應該否認人工智能的快速發(fā)展。當規(guī)則被重新定義時,忽視這一現(xiàn)實就意味著被邊緣化。

  我們不應該希望超級智能機器時代會有更好的生活環(huán)境。希望本身并不等于健全的計劃。我們也不應該做好跟有自我意識的人工智能對抗的準備,因為這么做只會讓它更加激進,這顯然并非明智之舉。最好的計劃似乎是主動塑造正在發(fā)展的人工智能,讓它能夠跟我們和諧共處,互惠互利。——北約合作網(wǎng)絡防御中心高級研究員、愛莎阿尼亞信息系統(tǒng)部門前主管簡恩·普麗薩魯

更多信息請關注微信公眾號: “OK智能制造” 請掃描下方二維碼并加關注!

                                

轉載請標注來源158機床網(wǎng)