作者|楊文??
編輯|六耳
來源|創(chuàng)頭條
Geoffrey Hinton(杰弗里·辛頓)是名副其實(shí)的AI教父。
上個(gè)世紀(jì)70年代,Geoffrey Hinton癡迷于計(jì)算機(jī)神經(jīng)網(wǎng)絡(luò)這一領(lǐng)域,默默耕耘了近50年。即使他提出的神經(jīng)網(wǎng)絡(luò)理論在長(zhǎng)達(dá)20多年的時(shí)間里飽受質(zhì)疑,Hinton仍然坐著“冷板凳”埋頭苦干。
2012年,Hinton和他的兩名學(xué)生創(chuàng)建了一家專注于“神經(jīng)網(wǎng)絡(luò)”的公司,通過分析數(shù)百萬張照片打造出一款可區(qū)分動(dòng)物、物體圖片的“神經(jīng)網(wǎng)絡(luò)系統(tǒng)”,能識(shí)別常見物體,如花、狗和汽車,被視為當(dāng)代AI的基礎(chǔ)。
最終,該公司在2013年被谷歌以4400萬美元收購(gòu),Hinton也由此加入了谷歌,并把深度學(xué)習(xí)技術(shù)帶進(jìn)了谷歌的多項(xiàng)業(yè)務(wù),直接把谷歌打造成了全球AI技術(shù)的“扛把子”。
2018年,Geoffrey Hinton、Yann LeCun和Yoshua Bengio因?qū)ι窠?jīng)網(wǎng)絡(luò)的研究獲得了當(dāng)年的圖靈獎(jiǎng),而神經(jīng)網(wǎng)絡(luò)正是ChatGPT、Bard等聊天機(jī)器人背后的奠基性技術(shù)。
不過,隨著AI在全球掀起的狂潮,這位AI教父卻慌了。
近日,Hinton告別了老東家谷歌,并在接受媒體訪問時(shí)表示,辭職為了“暢所欲言地談?wù)撊斯ぶ悄艿娘L(fēng)險(xiǎn)”。
“大多數(shù)人認(rèn)為這(AI危害)還很遙遠(yuǎn)。我過去也認(rèn)為這還很遙遠(yuǎn),可能是30到50年甚至更長(zhǎng)的時(shí)間。但顯然,我現(xiàn)在不這么想了?!?/strong>
Hinton認(rèn)為,谷歌和微軟以及其他大型公司之間的競(jìng)爭(zhēng),將很快升級(jí)為一場(chǎng)全球性競(jìng)爭(zhēng),如果沒有某種監(jiān)管,這場(chǎng)競(jìng)爭(zhēng)將不會(huì)停止,人工智能發(fā)展的速度會(huì)遠(yuǎn)超我們的想象,并最終走向失控。
對(duì)此,Hinton?甚至直言“對(duì)自己畢生的工作感到后悔”。
這些年,被全球稱為“AI教父”的辛頓也始終忙碌于研發(fā)和實(shí)踐一線。毫無疑問,他是全球最有發(fā)言權(quán)的人之一。以下是我們摘錄辛頓從2016年至今,對(duì)AI?公開發(fā)表的觀點(diǎn)。從他的直接表述中,你更能看到他對(duì)AI認(rèn)知的急劇變化:
時(shí)間:2016年
采訪者:《MACLEANS》
核心觀點(diǎn):“有一種擔(dān)憂就是人工智能代表著人類即將被淘汰……我相信5年內(nèi)不會(huì)發(fā)生這種事,而且我也相當(dāng)自信它不會(huì)成為我必需解決的問題。”
1.對(duì)AlphaGo有一種比較盛行的看法就是害怕它會(huì)比人類更聰明,甚至?xí)y(tǒng)治人類。對(duì)此,我認(rèn)為人們需要明白深度學(xué)習(xí)在背后可以做到很多事,而且做的更好。它已經(jīng)用于谷歌搜索和圖片搜索。在Gmail智能回復(fù)上也使用了深度學(xué)習(xí),就在語(yǔ)音和視覺領(lǐng)域,我相信不久機(jī)器翻譯也會(huì)出現(xiàn)。而且它還將會(huì)用于其他像是氣象科學(xué)、節(jié)約能源、基因組學(xué)等領(lǐng)域的重點(diǎn)問題上。
2.顯然的,如果它們被錯(cuò)誤使用,就會(huì)產(chǎn)生問題。任何新科技,如果被壞人使用,就會(huì)產(chǎn)生壞的影響。但這更像是一個(gè)政治問題而非技術(shù)問題。我認(rèn)為,我們必需像看待挖掘機(jī)一樣看待人工智能。它在很多事情上的表現(xiàn)都要比人類好。而且要比挖掘機(jī)的好處多得多。
3.還有一種擔(dān)憂就是人工智能代表著人類即將被淘汰,害怕人類會(huì)因此不可避免的失去工作。我很難預(yù)測(cè)5年后會(huì)發(fā)生什么,但我相信5年內(nèi)不會(huì)發(fā)生這種事,而且我也相當(dāng)自信它不會(huì)成為我必需解決的問題。人們可以考慮這種事情。但考慮重點(diǎn)并非是因?yàn)榧夹g(shù)有威脅就限制它的發(fā)展,而是如何改進(jìn)我們政治系統(tǒng),防止人們用它做壞事。
時(shí)間:2016年
采訪者:多倫多大學(xué)的作家Jennifer Robinson
核心觀點(diǎn):“尋找全新類型的神經(jīng)網(wǎng)絡(luò)是我現(xiàn)在覺得最激動(dòng)人心的方向;要讓計(jì)算機(jī)能像人類一樣好地理解詩(shī)歌、笑話或諷刺,可能還需要非常長(zhǎng)的時(shí)間。”
1.在語(yǔ)音識(shí)別、圖像解讀和機(jī)器翻譯等一些重要的任務(wù)上,深度神經(jīng)網(wǎng)絡(luò)的表現(xiàn)已經(jīng)非常好了。隨著我們的計(jì)算機(jī)越來越快、數(shù)據(jù)集越來越大,我確信這樣快速的進(jìn)展還將繼續(xù)。
但我認(rèn)為我們到目前為止所開發(fā)出來的人工神經(jīng)網(wǎng)絡(luò)類型并不是最好的??赡苓€會(huì)有更好的人工神經(jīng)網(wǎng)絡(luò)類型,能夠從遠(yuǎn)遠(yuǎn)更少的數(shù)據(jù)中學(xué)習(xí),并且還能提供更多關(guān)于真正大腦的思考方式的見解。尋找全新類型的神經(jīng)網(wǎng)絡(luò)是我現(xiàn)在覺得最激動(dòng)人心的方向。
2.最近,由我們對(duì)于大腦的理解所啟發(fā)的人工神經(jīng)網(wǎng)絡(luò)以及極大地拉近了人類和機(jī)器之間的表現(xiàn)差距。我覺得,這似乎已經(jīng)證明了從大腦中汲取靈感的思想是正確的。
3.我認(rèn)為計(jì)算機(jī)將最終能超越人腦的能力,但是超越不同的能力也將需要不同長(zhǎng)度的時(shí)間。要讓計(jì)算機(jī)能像人類一樣好地理解詩(shī)歌、笑話或諷刺,可能還需要非常長(zhǎng)的時(shí)間。
4.在五年之內(nèi),我們將能夠訓(xùn)練出帶有一萬億個(gè)權(quán)重的神經(jīng)網(wǎng)絡(luò),這大概相當(dāng)于一立方厘米的皮層。當(dāng)然,有可能我們使用的學(xué)習(xí)規(guī)則要優(yōu)于大腦的學(xué)習(xí)規(guī)則,所以也許一萬億個(gè)權(quán)重就足以讓計(jì)算機(jī)超越帶有數(shù)千萬億個(gè)權(quán)重的大腦。
5.我認(rèn)為在相當(dāng)長(zhǎng)的時(shí)間內(nèi),我們不需要擔(dān)心機(jī)器會(huì)接管這個(gè)世界。一個(gè)更迫切的問題是自動(dòng)化武器,例如攜帶炸藥的小型無人機(jī)。這種武器現(xiàn)在就可以制造。它們與生物或化學(xué)武器一樣可怕和無法接受,我們迫切地需要制定國(guó)際公約來阻止它們的使用。
時(shí)間:2017年1月
采訪者:外媒gigaom?
核心觀點(diǎn):“我覺得我有生之年大概是看不到(真正的人工智能,即AGI)。不過,五年后會(huì)發(fā)生什么我們很難預(yù)測(cè),所以我不去排除這樣的可能性。”
1.我有生之年是否會(huì)出現(xiàn)“真正的”人工智能,這取決于你對(duì)“真正的”人工智能定義是什么。如果你是說在自然語(yǔ)言、感知、推理、運(yùn)動(dòng)等方面都能和人類水平相當(dāng)?shù)娜斯ぶ悄荏w,我覺得我有生之年大概是看不到了。不過,五年后會(huì)發(fā)生什么我們很難預(yù)測(cè),所以我不去排除這樣的可能性。
在十年前,很多?AI?工作者認(rèn)為用神經(jīng)網(wǎng)絡(luò)完成機(jī)器翻譯是不可能的,因?yàn)檫@需要讓神經(jīng)網(wǎng)絡(luò)從原始訓(xùn)練數(shù)據(jù)中獲取所有語(yǔ)言知識(shí)。但在今天,這就是機(jī)器翻譯使用的方法,而且是最好的。神經(jīng)網(wǎng)絡(luò)翻譯顯著地縮小了機(jī)器和人工之間翻譯水平的差距。
2.說實(shí)話,我不太擔(dān)心現(xiàn)在大家經(jīng)常討論的那些問題,就是說變壞的機(jī)器人會(huì)代替人類接管世界。我更擔(dān)心的是諸如希特勒、墨索里尼這樣的人在科技的幫助下可能會(huì)做的事兒。如果這些人擁有智能機(jī)器人,后果不堪設(shè)想。我認(rèn)為現(xiàn)在最迫切的一件事就是對(duì)?AI?的軍事化制定相關(guān)的國(guó)際政策或者協(xié)議。
3.技術(shù)本身不是問題,問題是社會(huì)制度能不能保障每個(gè)人都受益。
4.深度學(xué)習(xí)的下一個(gè)飛躍是什么?目前,我們已經(jīng)在一些近半個(gè)世紀(jì)里都沒有解決的難題上獲得了前所未有的進(jìn)展。語(yǔ)音識(shí)別、圖像識(shí)別技術(shù)都已經(jīng)獲得了巨大的進(jìn)步,并且會(huì)變得更好。我相信,不久的未來計(jì)算機(jī)就能理解視頻里講了些什么。
5.二十幾年前,深度學(xué)習(xí)技術(shù)才出現(xiàn)在人們視野中,現(xiàn)在已經(jīng)取得了非常驚人的成果。更出色的神經(jīng)元類型和架構(gòu)使得更深層次的網(wǎng)絡(luò)上可以進(jìn)行更多,更好的學(xué)習(xí)任務(wù)。深度學(xué)習(xí)已經(jīng)吸引了大量的人才和資金,我想這些還會(huì)一直持續(xù)下去。
時(shí)間:2017年3月
采訪者:福布斯
核心觀點(diǎn):“大腦與現(xiàn)有(人工)神經(jīng)網(wǎng)絡(luò)很不一樣。我們(大腦)基本上能夠非常好地找到高維度數(shù)據(jù)中的信息……這是電腦程序沒有的計(jì)算能力?!?/strong>
1.大腦非常擅長(zhǎng)處理高維度的數(shù)據(jù),比如對(duì)視神經(jīng)傳遞過來的信息處理,那相當(dāng)于幾百萬個(gè)參數(shù)在短時(shí)間內(nèi)迅速變化。并且大腦的處理非常準(zhǔn)確,我們不會(huì)看到一只狗的時(shí)候說看到了大象……我們基本上能夠非常好地找到高維度數(shù)據(jù)中的信息……這是電腦程序沒有的計(jì)算能力。我們?cè)诘途S度的數(shù)據(jù)上已經(jīng)做得比較接近了,比如,在統(tǒng)計(jì)里面,可以用一個(gè)簡(jiǎn)單的少量參數(shù)的模型,處理一些量不大的數(shù)據(jù)。
2.讓我感到神奇的是,大腦擁有的參數(shù)比訓(xùn)練數(shù)據(jù)更多。這跟現(xiàn)有已經(jīng)成功的神經(jīng)網(wǎng)絡(luò)還是非常不一樣。現(xiàn)階段,(我們的神經(jīng)網(wǎng)絡(luò))一般訓(xùn)練數(shù)據(jù)不會(huì)比權(quán)重參數(shù)多。但是大腦并不是這樣,大腦處理一秒的數(shù)據(jù)大概需要一萬個(gè)參數(shù)。我們對(duì)這樣的系統(tǒng)了解并不多,也不知道怎么樣讓這樣的系統(tǒng)很好的找到數(shù)據(jù)當(dāng)中的結(jié)構(gòu)。
時(shí)間:2018.12
采訪者:WIRED
核心觀點(diǎn):“在之前的‘AI?寒冬’中,AI并沒有成為人們?nèi)粘I畹囊徊糠?。而現(xiàn)在它是了?!?/strong>
1.我一直很擔(dān)心致命自主武器的濫用。我認(rèn)為應(yīng)該設(shè)立類似《日內(nèi)瓦公約》的法規(guī)來禁止它們的使用,就像禁用化學(xué)武器那樣。
2.人們無法解釋自己做很多事的工作原理。人們不知道自己是怎么決策的。如果你讓人解釋自己的決策,你就是強(qiáng)制他們編故事。神經(jīng)網(wǎng)絡(luò)也有類似的問題。
3.你應(yīng)該基于這些系統(tǒng)的執(zhí)行效果來管理它們。運(yùn)行實(shí)驗(yàn)來看是否存在偏差,或者它會(huì)不會(huì)殺人。我認(rèn)為我們必須像對(duì)待人類一樣對(duì)待人工智能系統(tǒng):只看它們的執(zhí)行效果,如果它們不斷遇到困難,那你可以說它們不夠好。
4.大腦解決問題的方法和我們大多數(shù)神經(jīng)網(wǎng)絡(luò)有很大區(qū)別。人類有大約?100?萬億個(gè)突觸,人工神經(jīng)網(wǎng)絡(luò)就權(quán)重的數(shù)量來說通常至少要比這個(gè)數(shù)字小?10000?倍。在學(xué)習(xí)一個(gè)片段的時(shí)候,大腦會(huì)使用很多很多的突觸來盡可能地學(xué)習(xí)到更多。深度學(xué)習(xí)擅長(zhǎng)利用神經(jīng)元之間較少的聯(lián)系進(jìn)行學(xué)習(xí),因?yàn)樯窠?jīng)元之間有許多事件或例子需要學(xué)習(xí)。我認(rèn)為大腦并不關(guān)心如何把很多的知識(shí)連接起來,它關(guān)心的是如何利用這些連接快速獲取知識(shí)。
5.目前的炒作不會(huì)導(dǎo)致“AI寒冬”,因?yàn)?AI?技術(shù)已經(jīng)進(jìn)入你的手機(jī)了。在之前的“AI?寒冬”中,AI?并沒有成為人們?nèi)粘I畹囊徊糠?。而現(xiàn)在它是了。
時(shí)間:2020.10.20
地點(diǎn):麻省理工技術(shù)評(píng)論的年度?EmTech MIT?會(huì)議
核心觀點(diǎn):“深度學(xué)習(xí)足以復(fù)制所有的人類智慧”
1.人類的大腦有大約100萬億個(gè)參數(shù),或者說突觸,而我們現(xiàn)在所說的一個(gè)真正的大模型,像?GPT-3,有1750億。它比大腦小一千倍。GPT-3現(xiàn)在可以產(chǎn)生看似合理的文本,但與大腦相比仍然很小。但隨著取得一些概念上的突破,例如引入Transformers,我認(rèn)為深度學(xué)習(xí)足以復(fù)制所有的人類智慧。
時(shí)間:2023.3
采訪者:CBS
核心觀點(diǎn):“有些人認(rèn)為實(shí)現(xiàn)通用人工智能可能只需要5年,那是荒謬的,但我不會(huì)完全排除這種可能性。而幾年前我會(huì)說絕不會(huì)發(fā)生這種情況?!?/strong>
1.我認(rèn)為當(dāng)前是AI機(jī)器學(xué)習(xí)領(lǐng)域的關(guān)鍵時(shí)刻。ChatGPT表明,這些大型語(yǔ)言模型可以做一些令人驚奇的事情。
2.ChatGPT知道的比任何一個(gè)人都多。它在智力競(jìng)賽中表現(xiàn)出色,可以寫詩(shī),但在推理方面并不擅長(zhǎng)。我們?cè)谕评矸矫孀龅酶谩?/p>
3.我們現(xiàn)在正處于一個(gè)過渡點(diǎn),其中ChatGPT像一個(gè)“白癡天才”,它也并不真正了解事實(shí)真相。它接受了大量不一致的數(shù)據(jù)訓(xùn)練,試圖預(yù)測(cè)下一個(gè)網(wǎng)絡(luò)用戶會(huì)說什么。人們對(duì)很多事情有不同的觀點(diǎn),而它必須有一種混合所有這些觀點(diǎn)的方式,以便可以模擬任何人可能說的話。這與一個(gè)試圖擁有一致世界觀的人非常不同。
4.我認(rèn)為谷歌在發(fā)布聊天機(jī)器人時(shí)會(huì)比微軟更謹(jǐn)慎,并且它可能會(huì)附帶很多警告,這只是一個(gè)聊天機(jī)器人,不要一定相信它所說的……但是,誰來決定什么是壞事呢?有些壞事是相當(dāng)明顯的,但是很多最重要的事情并不是那么明顯。所以,目前這是一個(gè)很大的懸而未決的問題。我認(rèn)為微軟發(fā)布ChatGPT是非常勇敢的。
5.直到不久前,我認(rèn)為在我們擁有通用人工智能之前還需要20到50年的時(shí)間。而現(xiàn)在我認(rèn)為可能是20年或更短時(shí)間。有些人認(rèn)為可能只有5年,那是荒謬的。但現(xiàn)在我不會(huì)完全排除這種可能性,而幾年前我會(huì)說絕不會(huì)發(fā)生這種情況。
6.我認(rèn)為AI消滅人類的幾率介于0%和100%之間。我認(rèn)為這并非不可能。就我所說,如果我們明智的話,我們會(huì)努力發(fā)展它,以免發(fā)生這種情況。但是,令我擔(dān)憂的是政治局勢(shì)。確保每個(gè)人都明智行事是一個(gè)巨大的政治挑戰(zhàn),也似乎是一個(gè)巨大的經(jīng)濟(jì)挑戰(zhàn),因?yàn)楣镜睦麧?rùn)動(dòng)機(jī)可能不會(huì)像為他們工作的個(gè)體那樣謹(jǐn)慎。
7.我擔(dān)心美國(guó)人會(huì)試圖用AI士兵替換他們的士兵,他們正朝著這個(gè)方向努力。
8.我認(rèn)為AI技術(shù)將使工作不同,人們將從事更有創(chuàng)造性的工作,而較少?gòu)氖吕泄ぷ?。一旦這些工具開始有創(chuàng)造性,就會(huì)創(chuàng)造出更多的東西。這是自工業(yè)革命以來最大的技術(shù)進(jìn)步。我認(rèn)為AI在規(guī)模上與工業(yè)革命、電力、甚至是輪子的發(fā)明相當(dāng)。
時(shí)間:2023.5.10
采訪者:《麻省理工科技評(píng)論》的人工智能高級(jí)編輯威爾·道格拉斯·斯蒂爾
核心觀點(diǎn):“過去我認(rèn)為計(jì)算機(jī)模型沒有大腦好,但在過去的幾個(gè)月里我完全改變了看法;它們會(huì)為了獲得更多控制而失去控制。失控AI可能讓人類只是智慧演化過程中的一個(gè)過渡階段?!?/strong>
1.GPT-4讓我意識(shí)到AI模型和我們的大腦不同,過去我認(rèn)為我們正在開發(fā)的計(jì)算機(jī)模型沒有大腦好,但在過去的幾個(gè)月里我完全改變了看法。我認(rèn)為計(jì)算機(jī)模型可能是以一種相當(dāng)不同于大腦的方式運(yùn)作。它們使用反向傳播,可能更善于學(xué)習(xí)。
2.GPT-4可以通過副本以萬倍于前的速度進(jìn)行共享式學(xué)習(xí),而人類做不到這一點(diǎn)。GPT-4等大型語(yǔ)言模型知道的比我們多得多,它們具有關(guān)于所有事物的常識(shí)性知識(shí),它們可能比一個(gè)人知道的多1000倍。
3.我明白推理是我們?nèi)祟惖膹?qiáng)項(xiàng),然而GPT-4在幾天前展示出的表現(xiàn)使我感到震驚。它完成了我認(rèn)為不可能的常識(shí)性推理。GPT-4的智商大概是80或90左右。
4.AI如果比人類更聰明,人類將很容易被操縱。即使它們不能直接拉動(dòng)杠桿,它們肯定可以讓我們?nèi)ダ瓌?dòng)杠桿。
5.人工智能在醫(yī)學(xué)和其他方面非常有用,人類很難停止發(fā)展它們。但在破碎的政治系統(tǒng)環(huán)境之下,AI的惡意使用難以避免,但對(duì)齊解決遙遙無期。人們應(yīng)該聚在一起,認(rèn)真思考這個(gè)問題。
6.子目標(biāo)系統(tǒng)可能讓AI產(chǎn)生自我動(dòng)機(jī)。如果這些智能體會(huì)編程并具有執(zhí)行這些程序的能力,它們會(huì)為了獲得更多控制而失去控制。失控AI可能讓人類只是智慧演化過程中的一個(gè)過渡階段。
7.拔電源就好了?恐怕你做不到,想想電影《2001 太空漫游》里面的人工智能 HAL 是怎么做的。
(注:電影《2001 太空漫游》中,一艘發(fā)現(xiàn)號(hào)太空船被委派到木星調(diào)查訊號(hào)的終點(diǎn)。太空船上的人員包括大衛(wèi)·鮑曼博士、法蘭克·普爾和一臺(tái)十分先進(jìn)且具有人工智慧的超智慧電腦 HAL 9000 來控制整艘太空船。此外,太空船上還有三位正在處于冬眠狀態(tài)的科學(xué)家。但是遠(yuǎn)航之旅逐漸變成一趟可怕的旅行,HAL 發(fā)現(xiàn)大衛(wèi)與法蘭克打算將他的主機(jī)關(guān)閉。對(duì) HAL 來說,關(guān)閉它的主機(jī)代表會(huì)殺死它,所以 HAL 決定先發(fā)制人,殺害那三位冬眠中的科學(xué)家以及用制造假故障的狀況讓法蘭克去太空船外修理,然后用 HAL 的小型艇將法蘭克的氧氣剪斷,導(dǎo)致法蘭克缺氧而死。)
8.資本主義制度以及國(guó)家之間的競(jìng)爭(zhēng)關(guān)系,停止發(fā)展AI是不可能的事情。所以簽署請(qǐng)?jiān)笗f請(qǐng)停止是愚蠢的。我希望讓美國(guó)和其他國(guó)家達(dá)成一致,就像在核武器上所做的那樣,在試圖阻止其威脅的過程中進(jìn)行合作。
9.我擔(dān)心的是,生產(chǎn)力的提高將導(dǎo)致更多人失業(yè),現(xiàn)行的政治制度會(huì)強(qiáng)化貧富差距,社會(huì)暴力程度也可能逐漸升級(jí)。為改善這種狀況,我們可以考慮為每個(gè)人提供基本收入。然而,這項(xiàng)技術(shù)是在一個(gè)并非為每個(gè)人利益而設(shè)計(jì)的社會(huì)中發(fā)展起來的。
.END.
圖片來源|網(wǎng)絡(luò)
您也可以關(guān)注我們的官方微信公眾號(hào)(ID:ctoutiao),給您更多好看的內(nèi)容。