Tip:
Highlight text to annotate it
X
譯者: Sailin Lu 審譯者: chen chi
容我為各位呈現一些照片
(影片)女孩:嗯,這是一隻貓,坐在床上。
這男孩在拍撫一隻象。
這些人要去搭飛機。
好大的飛機。
主講人:這是由一位三歲的小孩
所描述她看到的一系列照片
雖然對於這世界她還有更多要學習的地方,
但是她已經是其中一項重要技能的專家--
為所見之聞賦予意義。
科技在我們的社會已進展到前所未有的程度:
我們把人送上月球、發明可以與人交談的電話,
或是客製一個電台,只播放個人喜歡的音樂。
然而這台無比聰明的機器和電腦
仍然無法發展這項技能,
因此今天我來到這裡向各位報告
我們在電腦視覺的最新研究進展,
這是現階段在資訊業領域中,
最先進、最具潛力的革命性技術。
是的,目前我們已經有自動駕駛的原型車,
但若不具備視覺辨識技術, 它將無法分辨同樣出現在馬路中,
一團它其實輾過也無妨的破紙袋,
以及一個大到它必須閃避的石塊, 兩者有何不同。
我們製造出畫素極高的相機,
但我們卻無法賦予盲人視覺;
無人機可以翻山越嶺,
卻沒有足夠的視覺技術可以
讓我們追蹤雨林的變化;
監視器滿佈在各個角落,
卻無法在看到一個孩子將溺斃在泳池之際, 對我們發出警訊。
靜態及動態影像已逐漸與全世界的生活密不可分,
它們發展的步伐已經遠遠超越人類
及其群體所相信的,
在座各位以及我自己 都是TED這個活動裡頭的推手。
然而,目前最先進的軟體卻仍在其中苦苦掙扎,
無法理解與應用這龐大的資料體。
換而言之,在這整個社會裡,
大家都有如盲人在運作,
因為連我們最聰明的機器都還看不見。
或許有人會問:這到底有什麼困難?
任何相機都可以產生像這樣的照片,
它是藉由將有色光轉換成2D的數字陣列,
也就是大家熟知的像素。
但這些數字是死的,
並沒有被賦予意義。
就好像有「聽」,不代表有「到」。
同樣地,攝取到影像不等於看見,
我們所認知的看到,應包含著了解其中的意義。
事實上,這樣的成果, 是大自然花了五億四千萬年的光陰
才得到的。
這其中的努力,
泰半是耗費在發展腦部的視覺處理這個區塊,
而不是眼睛的部分。
也就是說,視覺始於眼睛,
但真正使它有用的,卻是大腦。
十五年來,從在加州理工學院攻讀博士開始,
到領導史丹佛的視覺實驗室,
我和指導教授、同事及學生們,
試圖讓電腦擁有智能之眼,
我們研究的領域稱之為電腦視覺與機器學習,
這是人工智慧其中一環。
我們的終極目標就是教導機器能夠像人一樣理解所見之物,
像是識別物品、辨認人臉、 推論物體的幾何形態,
進而理解其中的關聯、情緒、動作及意圖。
在座每一位和我,都可以在匆匆一瞥的瞬間,
理解到人事、地、物所交織而成的網絡,
要電腦達成這個目標的第一步,就是教導它辨別物品,
這是視覺的基石。
簡單來說,我們教導的方法就是
給電腦看一些特定物體的影像,
例如貓咪。
我們設計了一個程式讓電腦利用這些影像來學習
這有啥困難?
貓咪不就是由一些幾何圖形和顏色所組成的嘛,
這就是我們初期所做的物體模型。
我們用數學語言來告知電腦演繹方法,
貓就是有圓圓的臉、胖胖的身體,
兩個尖尖的耳朵和一條長尾巴。
看起來很好啊,
但如果貓咪長這樣呢?
(觀眾笑)
全身都捲起來了。
這下子我們又得在原來的模型 加上新的形狀和不同的視野角度。
又,如果貓咪是躲著的呢?
像這群傻貓?
這樣各位了解我的意思嗎?
即使簡單如貓這樣的家庭寵物,
也會有相對於原型以外,無數的其他形態表徵,
而這只是其中一樣。
因此八年前,
一項極其簡單和深刻的觀察,改變了我的想法,
沒有人教導孩子如何去「看」,
特別是在早期發育階段,
他們是從真實世界的經驗中學習。
如果你把孩童的眼睛
當成生物相機的概念,
就如同每200毫秒就拍一張照片一樣,
這是眼球移動的平均時間。
年紀到了三歲時, 孩子們已經看過了真實世界中
數以百萬計的照片,
這樣的訓練範例是很大量的。
因此,我的直覺告訴我 應該以孩童的學習經驗法則,
並兼以質與量,
提供訓練的資料給電腦,
而非一昧追求更好的程式演算。
有了上述的洞見,
我們接下來必須要收集
前所未有的大量資料群,
甚至於是千倍以上的。
於是我與普林斯頓大學的李凱教授
共同於2007年開始了 我們稱之為 ImageNet 的專案。
很幸運地,我們不必在頭上綁一個相機,
然後花費數年收集影像,
而是轉而由網際網路,
這個由人類所創造出來 龐大的影像寶窟,
我們下載了數以百萬計的影像,
並且使用如Amazon Mechanical Turk 這樣的群眾外包平台,
來協助我們處理及分類這些照片。
在高峰期,ImageNet 甚至是整個亞馬遜平台
最大的雇主之一,
我們一共聘請了來自167個國家,
約5萬個工作者,
來協助我們分類處理並標示
將近10億幅影像,
花費了這麼多的資源,
就是為了捕捉那一絲絲
孩童在早期心智發展的浮光掠影。
用現在眼光看來,使用大量的資料
來訓練電腦演算是明顯合理的,
然而在2007年的世界卻非如此。
有好長一段時間, 我們在這個旅途中孤獨地踽踽而行,
有些同事好心地建議我, 與其苦苦掙扎於研究經費的募集,
還不如轉而先做些比較好拿到終身聘的研究,
我還曾跟我的研究生開玩笑說
我乾脆再開一間乾洗店來資助ImageNet 好了,
畢竟那就是我用以支付大學學費的方法。
就這樣我們還是繼續往前走,
2009年起,ImageNet 已經是個擁有
涵蓋了兩萬兩千種不同類別,
多達150億幅圖像的資料庫,
並組織以英語日常生活用字為主,
這樣的規模,不論是「質」或「量」
都是史無前例的。
用貓來舉個例子說明,
我們有超過六萬兩千種
不同外觀和姿勢的貓咪,
橫跨不同的種類,有家貓,也有野貓。
ImageNet 的成果讓我們非常激動,
我們希望它有助於全世界的研究,
就如同 TED 的貢獻,我們免費提供整個資料庫
給全世界的研究單位。
(觀眾鼓掌)
有了這些資料,我們可以教育我們的電腦,
下一步就是回到程式演算的部分了。
結果我們發現,ImageNet 所提供的豐富資訊
恰巧與機器學習演算的其中一門特定領域 不謀而合,
我們稱它為「卷積神經網絡」,
在七零及八零年代,福島邦彥、Geoff Hinton
和 Yann LeCun 等學者為該領域的先驅。
正如同大腦是由無數個緊密連結的神經元所組成,
神經網絡的基本運作單位
也是一個類神經元的節點。
它的運作方式是從別的節點得到資料,
然後再傳給其他的節點。
而且這些數不清的節點
擁有層層的組織架構,
就好像我們的大腦一樣。
在一般的神經網絡中, 我們用作訓練的物品辨識模型
就有兩千四百萬個節點、
一億四千萬個參數,
以及一百五十億個連結。
這是一個大的不得了的模型。
由ImageNet 提供巨大的資料群、
並使用先進的核心處理器及圖型處理器來訓練 這個龐然大物,
卷積神經網絡就在眾人的意料外
開花結果了。
在物品辨識領域中,這樣的架構
以令人興奮的嶄新成果,傲視群雄。
電腦告訴我們
這張圖中有隻貓,
還告訴我們貓在哪裡。
當然,這世界不會只有貓,
電腦的演算告訴我們
這張圖中有一個男孩和一隻泰迪熊;
有狗,一個人,以及背景中的一支小風箏;
或這一張令人眼花撩亂的圖,
有人、滑板、欄杆、路燈,等等。
有時候,如果電腦不確定自己所見到的東西時,
我們已經將它教到可以聰明地
給一個安全的答案,而非莽撞地回答,
就像一般人會做的。
更有些時候,電腦的運算竟能夠
精準地辨別物體品項
例如製造商、型號、車子的年份。
Google 將這個演算程式廣泛地運用在
數百個美國城市的街景裡,
也因此我們從中得到了一些有趣的概念。
首先,它證實了一項廣為人知的說法,
也就是汽車價格和家庭收入
是息息相關的。
然而令人驚訝的是,汽車價格也和
城市中的犯罪率
以及區域選舉模式,有相當的關係。
等等,難道說我今天
就是來告訴各位電腦已經趕上 甚至超越人類了嗎?
還早得很呢。
到目前為止,我們只是教導電腦識別物品,
就像小孩子牙牙學語一樣,
雖然這是個傲人的進展,
但它不過是第一步而已,
很快地,下一波具指標性的後浪就會打上來了,
小孩子開始進展到用句子來溝通。
因此,他已經不會用「這是貓」 來描述圖片,
而是會聽到這個小女孩說「這是躺在床上的貓」。
因此,要教導電腦看到圖並說出句子,
必須進一步地仰賴龐大資料群
以及機器的學習演算。
現在,電腦不僅要學習圖片識別,
還要學習人類自然的
說話方式。
就如同大腦要結合視覺和語言一樣,
我們做出了一個模型, 它可以連結不同的可視物體,
就像視覺片段一樣,
並附上句子用的字詞和片語。
約四個月前,
我們終於把所有的元素全部兜起來了,
做出了第一個電腦版的模型,
它有辦法在初次看到照片時
說出像人類般自然的句子,
好,現在我要給各位看看電腦
對於演講一開頭
那位小女孩所看到的影像, 它又是如何理解的。
(電腦) 有個人站在大象旁邊。
一架大飛機停在機場跑道上。
(主講人) 當然,我們仍戮力於改善這電腦程式,
它還有很多要學。
(觀眾鼓掌)
電腦還是會犯錯。
(電腦) 一隻貓包著毯子躺在床上。
(主講人) 因為它看了太多貓了,
以至於它見到了什麼都像貓咪。
(電腦) 一位小男孩握著一支球棒。
(觀眾笑)
(主講人) 或者,如果電腦是第一次看到牙刷, 會把它與球棒混淆。
(電腦) 一個人在建築物旁的街道上騎馬。
(觀眾笑)
(主講人) 我們還沒讓電腦上基礎美術課。
(電腦) 一匹斑馬站在原野中。
(主講人) 電腦還沒辦法像人類一樣,
學會欣賞大自然的美景。
這是條漫漫長路,
要從零歲發展到三歲是很難的,
更艱深的挑戰在於從三歲發展到十三歲, 甚至到更遠的階段。
讓我用這張男孩與蛋糕的圖片來進一步說明,
直到今日,我們已經教會了電腦識別物品,
甚至於在看到一張圖後,可以簡單地敘述。
(電腦) 一個人和蛋糕坐在桌旁。
(主講人) 這張照片其實蘊涵著更多的東西,
不僅只有人和蛋糕。
電腦看不出這是種特別的義式蛋糕,
人們只有在復活節時才會做。
這個男孩穿著他最心愛的T恤,
是去雪梨玩的時候,他的父親送的,
各位和我都可以看得出他有多快樂,
以及當時他的心裡在想什麼。
這是我兒子,李奧。
在探索智能視覺的旅途上,
我不斷地想到他,
以及他在將來生活的世界,
當未來,機器有了視覺,
醫生和護士就多了雙永不倦怠的眼睛,
幫助他們診斷及照顧病人;
行駛在路上的車子可以更聰明、更安全;
人類與機器人能一起
共同投入災區的救援工作,拯救受困人員及傷者;
我們還可以發現新品種 與更好的材料,
探索未知的疆界, 這一切都可仰賴機器的協助。
一步一步地,我們賦予機器視覺,
先教他們識別物品,
然後它們也讓我們看得更清楚,
這是第一次人類的眼睛不是唯一
可以用來思考和探索世界的工具,
我們不僅可以利用機器的智能,
更可以運用更多你想像不到的方式攜手合作。
這是我想追求的目標:
給予機器智慧之眼,
為李奧和整個世界創造更美好的未來。
謝謝各位。
(觀眾鼓掌)