两根一起用力挺进宫交h_国产精品v欧美精品|HD中文字幕在线播放,午夜av亚洲女人剧场se,她当着丈夫面被耍了k8,女警丰满的双乳

湯曉鷗:人工智能“簡史”

時間:2017-04-21

       (轉(zhuǎn)載自華夏基石e洞察,如有侵權(quán)請聯(lián)系刪除)
 
人臉識別
 
       “湯曉鷗,商湯科技創(chuàng)始人,中國科學院深圳先進技術(shù)研究院副院長、集成所多媒體中心主任、香港中文大學教授、工程學院副院長,麻省理工學院博士,其發(fā)明的人臉識別技術(shù)(GaussianFace/DeepID)成為世界上第一個超過人眼識別能力的計算機算法。”
 

       大家中午好!非常榮幸能夠與這么多業(yè)界精英同臺演講。
 

       三年前,我常常跟投資人、跟一些企業(yè)家講人工智能、講深度學習,但那個時候大家還不理解,也都不太關(guān)心。后來,谷歌推出了阿爾法狗,人工智能就火了。除了受阿爾法狗事件的影響之外,也得益于美國五大人工智能巨頭形成的聯(lián)盟。中國在雙創(chuàng)活動中也選擇了兩家人工智能的領(lǐng)軍企業(yè),一家是百度,另外一家是商湯,這是兩家中國智能的代表。所以,張維總提到了高估值的商湯,我認為并不高,應(yīng)該是低估值的商湯。
 

       但是,現(xiàn)在大家都在講人工智能,給我的感覺是,人工智能在中國有點過熱了,所以我今天想為大家潑潑冷水。
 

一、人工智能的作用是有限的
 
       人工智能是什么呢?應(yīng)該說,它跟A股很像。如果說上海是中國的A股市場所在地,那么三年前,人工智能相當于A股市場的三千點以下,沒有人買。而今年,這個指數(shù)飆到了六千點。在這種情況下,大家是買還是不買呢?

       有的時候,我們會把一些事看得太過神奇。這與彭劍鋒教授所講到互聯(lián)網(wǎng)的發(fā)展是同樣的道理,人工智能也不過是一個輔助性的工具,并不是事情的全部。這個工具本身并不能產(chǎn)生獨立的價值,而一定是在跟各個行業(yè)相結(jié)合以后,為各個行業(yè)生產(chǎn)效率的提升來服務(wù)的。我認為,飯要自己親自吃,廁所也要自己親自上,鍛煉身體也一定要親自去。我們不能過于依賴人工智能,不能把什么事都交給它,它的作用畢竟還是很有限的。

       十年前,我的實驗室做出了人臉識別系統(tǒng),里面涉及到一些圖像處理、特效處理、自動分割以及交互等內(nèi)容,也越來越好玩。

       圖像處理源于2008年的北京霧霾。當時正在召開奧運會,因為霧霾的原因,新聞圖片發(fā)出去會令人感到尷尬。所以,我們定制了一些功能,用了一些算法,可以把圖像里的霧去掉。我們這次會議的地點在三亞,在這樣的碧海藍天之間,這個技術(shù)是用不到的。但今天的題目是迷霧航行,雖然我們不再需要去除新聞圖片中的霧霾了,但就目前大家對人工智能的認識來看,我覺得還是把認識的“霧”去掉,然后航向才能明確。

       那么,在人工智能方面怎么去霧,怎樣才能真正踏踏實實地做點事呢?

       我們知道,霧的濃度和距離是成比的。所以在新聞圖片中,我們先是把三維算出來,然后把霧去掉,并且還能把背景模糊化。最后,一張非常糟糕的照片被我們做出了單反的效果。這一技術(shù)所形成的文章得到了2009年的最佳論文獎,我還是蠻驕傲的。但是,這一技術(shù)的產(chǎn)生,是在2011年以前,有我們十幾年的積累做基礎(chǔ),也是在深度學習這個算法產(chǎn)生之前的事。我想說的是,和所謂的人工智能一樣,這些技術(shù)都不是一夜之間發(fā)生的,而是一個長期艱苦積累的過程。并且是我們所積累的幾百項工作中比較出色的部分。
 
二、人工智能與深度學習
 
       1、人工智能“簡史”
 

       目前,人工智能目前發(fā)展到了什么程度呢?根據(jù)我二十年來做的工作,我總結(jié)一下人工智能發(fā)展的簡單歷程。

       在國際范圍內(nèi),人工智能最早誕生于1956年。從那以后,人工智能的發(fā)展勢頭不斷起起落落,也曾喧囂,但最終都歸于平靜,并沒有真正發(fā)掘出對人類社會生活有益的功能。但是在2011年,誕生于2006年的“深度學習”的算法產(chǎn)生了效用。從那時開始,人工智能開始具體應(yīng)用于很多的單向領(lǐng)域或者說具體的行業(yè),并且開始超越了人的水平。
 

       對于人工智能的發(fā)展,幾個主要的“玩家”起到了決定性的推動作用。在軟件方面,谷歌和Facebook進行了大量的投入,很多創(chuàng)新都是從這兩家公司產(chǎn)生的。為什么是它們?因為它們有大量的數(shù)據(jù)要處理,它們有剛性的需求。同時,它們也有大量的資金投入。谷歌去年一年在人工智能領(lǐng)域的研發(fā)投入是120億美金。阿爾法狗幾次挑戰(zhàn)李世石,還有相應(yīng)的宣傳,都是大量投入的結(jié)果,并不是簡單的炒作就能夠達成的。同時,F(xiàn)acebook也在這一領(lǐng)域做出了大量的投入。

       在硬件方面,包括深度學習的算法、計算平臺幾乎都是在Spotify的GPU上做起來的,它們相當于取代了當年vpail的組合。
 

       2、深度學習引擎
 

       如果說人工智能是一條紅線,那么,深度學習在某種意義上來說就是這個紅線的引擎,而大數(shù)據(jù)就是它的原料。目前,人工智能的大部分技術(shù),都是由深度學習算法來支撐的。
 

       深度學習發(fā)展出來的時間很短。在2011年,它跟微軟進行了合作,在語音識別技術(shù)上取得了重大突破。當時,微軟首先推出的是應(yīng)用方面的驅(qū)動。在那以后,因為有了多年大數(shù)據(jù)的積累,又組織了更多在語音識別方面有相當實力的人,所以就有了更加重大的突破,相當于在一年之內(nèi)做了十年的事。
 

       3、在垂直領(lǐng)域落地
 

       我們從原來人腦設(shè)計參數(shù)的人工智能轉(zhuǎn)變?yōu)橛纱髷?shù)據(jù)驅(qū)動的人工智能,實際上是在某些領(lǐng)域取得的技術(shù)突破,主要是在某個特定的領(lǐng)域超過了人。比如說,最早用深度學習做出來的語音識別系統(tǒng)大獲成功。在人臉識別、圖像分類、阿爾法狗、自動駕駛、醫(yī)療技術(shù)等幾個方面都有著很大程度的突破。這些學術(shù)方面的突破,使計算機超越了人類以后,就相當于在垂直領(lǐng)域邁過了一道檻。而這道檻之后,人工智能技術(shù)終于可以落地了,終于可以替換一些人工成本,來幫助產(chǎn)業(yè)提高效率了。
 

       所以,我們看到的人工智能涉及到了很多具體的領(lǐng)域,有的與產(chǎn)業(yè)結(jié)合得很好,有的則剛剛開始,當然也有一些完全是出于炒作。總之是參差不齊,或者說是各有千秋。
 

       4、圖像:眼睛的智能
 

       目前,人工智能主要有三個戰(zhàn)場:一個是語音識別,相對來說比較成熟;它之后是自然語言,在這個領(lǐng)域還有很多事要繼續(xù)研究,非常難;現(xiàn)在的主戰(zhàn)場是圖像,就是眼睛的智能。怎樣用眼睛識別出環(huán)境與物體,這也是非常困難的事。
 

       2012年,Hinton在圖像識別方面也取得了重大突破。在此之前,Viewdle擁有這個領(lǐng)域最大的訂單,但Hinton的成果一下把前人甩出了10年的距離,并在當時引起了很大的轟動。

       在此之后,僅僅過了4個月,谷歌花了5千萬美金收購了它。這個驚人的舉措令我們認識到,人工智能開始值錢了。接著,谷歌又花了6.6億美金收購了一家公司。這家公司只有12個人,沒有什么特別的產(chǎn)品,主要是研究如何用深度學習來下棋。當時我們覺得它的價格過于昂貴了,但實際上這個公司誕生了很多算法,所以僅僅過了一年多以后,他們用阿爾法狗下了一盤舉世震驚的棋,一下子就把投入的錢賺回來了。
 

       2013年,F(xiàn)acebook聘請了另外的團隊,在紐約建立了人工智能實驗室。后來,通用、因特爾等大企業(yè)也紛紛進入到這一領(lǐng)域,并且也開始收購一些公司。
 
三、人臉識別技術(shù)——華人的成就
 
       在這期間,我們做了幾件比較有影響力的事。2014年,我們首次突破了人臉識別技術(shù)(ImageNet,一個計算機視覺系統(tǒng)識別項目,是目前世界上圖像識別最大的數(shù)據(jù)庫),在2015年的時候取得了全球第一的成績,2016年在五項里取得了三項世界冠軍。與阿爾法狗一樣,我們也做到了機器的算法超過了人類,在某個特定的領(lǐng)域可以把人打敗。
 

       這其實并不神奇,因為汽車早已在賽跑的領(lǐng)域打敗了人類。可以說,在某個特定領(lǐng)域打敗人類不是什么了不起的事。但是人們普遍認為,人工智能就是機器人,它可以超越人腦并控制人類。但事實上,這是非常遙遠的事情。我們真正在一線做人工智能研發(fā)的人是不敢這么想的,只是致力于讓機器做事先設(shè)計好的特定任務(wù),絕不會有另外的任務(wù)附加給它。我們經(jīng)常開玩笑說,李世石在跟阿爾法狗下棋之前,也許早已在賭博公司下了賭注,賭自己輸。但是,阿爾法狗想不到這一點,所以盡管它以為自己贏了,但實際上它輸了(笑)。

       深度學習有三個大核心要素:一是深度學習的算法設(shè)計;二是高性能的計算平臺;三是大數(shù)據(jù)。
 

       1、艱難而輝煌的戰(zhàn)績
 

       2011年,我們實驗室的幾十個博士、教師開始研究深度學習。這是學術(shù)界最早涉獵深度學習的華人團隊。因為做得早,所以在2011—2013年間,在人工計算機視角最頂級的兩個會議上,全球貢獻的29篇涉及到深度學習的文章中,有14篇出自我們的實驗室,占了全球一半的數(shù)量。2014年,我們又打敗了Facebook,在人臉識別技術(shù)方面超過了人眼識別。當時,一般人眼識別的準確率是75%強,但Facebook做到了97.3%。但我們的團隊連續(xù)做了四五個算法,最后從97.4%一路做到了99.55%,在與Facebook和谷歌的競爭中取得了好成績。

       2014年9月份,我們又參加了一個世界級的大賽,與包括百度、谷歌、牛津、微軟在內(nèi)的37個世界頂級團隊競爭,取得了全球第二的成績,谷歌是第一。其實在競賽中,我們做到了的數(shù)據(jù)高于谷歌發(fā)布的成績,所以只能屈居第二。
 

       2015年,組委會在比賽中加入了視頻。在視頻的檢測中,我們?nèi)〉昧巳虻谝坏某煽儭?br />  
       2016年,我們在五項比賽里取得了三項第一名。
 

       2、我們自己的開源系統(tǒng)
 

       這個時候,我們其實在做一個“大腦”,這是一個非常困難的任務(wù)。深度學習跟人的大腦有相似之處,越難的任務(wù)會做得越好。比如說,我們要從幾千個瓶子里識別出其中的一個,這個算法肯定做不好。但如果能做出一千類物體的識別技術(shù),把它做成最好的大腦,這時再回來識別瓶子,就可以做得很好。ImageNet就是對一千個問題進行了分類。跟人腦的相似之處在于,如果一個人希望在未來搞投資,那他肯定不會從幼兒園到小學只學投資這件事。人在小的時候,數(shù)學、物理、化學、歷史都要學習,只有讀到博士的時候再去做具體的任務(wù)。所以,一定要有把大腦訓練聰明的過程。

       大腦的核心就像是一套操作系統(tǒng),它是一個開源系統(tǒng)。谷歌和Facebook都有它自己的開源系統(tǒng)用來做基礎(chǔ)應(yīng)用,而且有一些還是免費的。現(xiàn)在人工智能、深度學習的門檻變得比較低,就是因為它有了開源系統(tǒng)。有了這個系統(tǒng),隨便找?guī)讉€懂點技術(shù)的人,利用這套系統(tǒng)就可以訓練出一個模型,可以做一些應(yīng)用。
 

       但是,這里存在一個問題。比如你要做的是安卓系統(tǒng)還是在安卓系統(tǒng)上寫一個APP?我們經(jīng)常會把這兩件事混為一談。比如有的人能做幾個APP,演示出來就被說成是人工智能,但事實上它們是不同的。而且,我們做出來的東西是不是好,都是要受這套開源系統(tǒng)的控制。

       我們在2011年的時候還沒有開源系統(tǒng),所以要努力學習,從頭做起。這些年來,我們成功開發(fā)了自己的這套系統(tǒng),雖然沒有完全對外開放,但我們自己和一些合作伙伴都在用。

       今年開始,我們開始用這套系統(tǒng)訓練ImageNet。它是一個神經(jīng)網(wǎng)絡(luò),有點像DNA的結(jié)構(gòu)。在2012年,我們做到了5層,谷歌打贏我們的那場比賽用的是22層,去年微軟做的是152,而用我們的系統(tǒng)訓練出來的是1207層。

       在2013年的時候,我們訓練網(wǎng)絡(luò)的檢測準確率只有22%,2014年做到了53%,后來又發(fā)展到了62%,現(xiàn)在我們的最好成績是66%。可以看到,以前,我們最好的進展情況大概是一年一個點,這樣的速度就完全可以發(fā)論文了。但是經(jīng)過了這三四年,從22到66,我們已經(jīng)翻了三倍,這就是進展的速度。跟以前不一樣的是,我們在單向任務(wù)上也是突飛猛進的。
 

       3、自己的操算平臺
 

       訓練這么復雜的一個網(wǎng)絡(luò)需要一個大的平臺。谷歌和Facebook的開源系統(tǒng)并不支持這個大平臺的運算,所以我們要做自己的操算平臺,并且要與谷歌的機器連起來。我們在香港有一個操算集群,在北京有三個,只有在這樣的大集群上才能真正的訓練出核心的大腦和核心的網(wǎng)絡(luò)。

       在這方面,我們主要的合作伙伴有兩家,一家是NVDIA。我們幾乎所有的智能學習都是基于它的CPU在進行運算。很榮幸,這家公司把我們當成了跟谷歌、Facebook一樣級別的戰(zhàn)略伙伴。另一家是用一些高速的網(wǎng)絡(luò)把這些機器連起來,和我們也形成了戰(zhàn)略合作伙伴關(guān)系。目前,我們正與這兩家公司共同研究下一代產(chǎn)品。
 

       4、大數(shù)據(jù)庫
 

       最后一個是大數(shù)據(jù)。有了模型,有了平臺,還需要海量的數(shù)據(jù)。在這方面我們與300多家企業(yè)進行了合作,有18類、十幾億的各種圖像和多媒體的數(shù)據(jù)。同時,我們也在建立一些大型的學術(shù)方面的數(shù)據(jù)庫,定義了很多新的研究方向和新的課題,包括人臉數(shù)據(jù)庫、車型數(shù)據(jù)庫等等。
 

       比如車型數(shù)據(jù)庫,在我們進入這一領(lǐng)域之前,學術(shù)界只有10幾種車型,而我們定義了上千種。對人群定義了94種特性。還有各種服裝的數(shù)據(jù)庫也是我們定義出來的。以前,我們看別人的文章,跟著別人的文章做,現(xiàn)在我們自己做文章,做專利,也在參與做標準。并且我們又在開辟新的方向,提出新的問題,定義新的數(shù)據(jù)庫,定義新的玩法,這實際上是在引領(lǐng)新的學術(shù)研究方向。
 

       5、人工智能的十大先驅(qū)
 

       在這些輝煌的戰(zhàn)績背后,是我們實驗團隊的艱苦付出。以圖像放大,并處理清晰這件事為例,大家不妨感受一下,人工智能這件事到底有多難。
 

       比如,我們在機場拍到的罪犯的照片很模糊,經(jīng)過超分辨率處理變成清晰了以后,可以輔助警方把他給抓住。我們不但要把圖片放大,并且還要使模糊的照片變得清晰、漂亮。在已經(jīng)做十幾年之后,我們?nèi)匀挥X得做不到。因為已經(jīng)有人做得很先進了,但他們也沒有做到。最初,我們用當時的算法得到的結(jié)果是令人失望的,放大了以后效果很差。但是,我們?nèi)匀辉谌四槞z測、高分辨率、人臉的特性分布等所有方面進行了大量的研究,每一項都有專門的文章。最近兩年,我們有多篇文章從這一方向闡述,并拿到了世界頂級的學術(shù)會議上。從學術(shù)的角度來講,這些都是很大的進步,但是花了這么大的功夫,也仍然有太多太多的空間有待我們?nèi)ミM步,還有很多的技術(shù)沉淀,有很多工作要做。
 

       剛剛我們又投出了幾篇把一張小圖變成高清大圖的文章,因為這里面的應(yīng)用前景非常廣闊。我們知道,傳輸一張高清大圖的速度很慢,那么我可以把它壓縮得非常小,傳過去以后,可以由接收端自行放大,并且得到非常高清的效果。日本有人用我們的技術(shù)做了一個很好玩的應(yīng)用,叫做WAIFU2x,翻譯過來就是放大兩倍,就是把普通照片放大兩倍的意思,并且變得更加清晰。
 

       但更重要的是,諸如遙感衛(wèi)星監(jiān)控,還有一些軍事上的偵查,都可以應(yīng)用這一技術(shù)。
 

       在沒有高分辨率技術(shù)之前,一般系統(tǒng)的分辯率都非常差,但用了人臉定位信息以后,我們可以實時并且非常準確地把人臉上的點定位出來,然后進行多集放大,每一集放大一點后再定位,然后放大一點,再定位,最后取得了非常好的效果。最初,我們在全球第一個做到了5點深度學習,后來做到了106點定位。現(xiàn)在,業(yè)界有用很多人臉跟蹤的應(yīng)用,據(jù)說直播軟件背后都是這一技術(shù)。同時,我們在實際偵查圖像上進行了應(yīng)用,基本可以把人看清楚了。這在以前是完全做不到的。
 

       人工智能不可能橫空出世,說出來人們也不會相信。我們之所以能夠做這些事,是因為我們有一定的積累。我們在深度學習之前已經(jīng)有了很長時間的積累。比如,從2004到2008年間,我們在兩個頂級學術(shù)會議上的文章數(shù)量,其中的一個實驗室就做了57篇,而NIT一共有91篇,劍橋是30篇,可以說我們跟這些學校打了一個平手。前年也是在這兩個會議上,我們發(fā)出了24篇文章,谷歌是38篇。要知道,谷歌是擁有6萬名員工的大公司。去年,還是這兩次會議,我們又發(fā)表了42篇文章,超過了谷歌前年的水平。按照這個標準,我們頂多落后于谷歌一年。
 

       在人工智能領(lǐng)域,全世界有600個國際會議。在其中排名前五的會議上,從我們實驗室畢業(yè)的學生拿到了54個最佳論文獎,包括剛才講到的去霧的算法。要知道,這些會議每次從一千多篇文章里只會選出一篇,而且是雙盲選擇,與人無關(guān),只與文章本身有關(guān)。這跟中國的一些獎項的評選完全是不同的運作方式。
 

       我們的這些成績,也得到了國際上的承認。NVDIA去年評選出了人工智能的十大先驅(qū),我們很榮幸地位列其中,也是亞洲區(qū)唯一入選的實驗室。跟我們同時入選的另外9家都是計算機視角鼎鼎有名的機構(gòu),包括NIT、斯坦福等等世界級的百年名校,還有深度學習的“四大天王”、Facebook、谷歌的一些元老等等。與之相比,香港中文大學只是一所有著50年歷史的名校,而作為唯一一個比較年輕的實驗室,我們也不是靠學校的名氣入選的。
 
三、人臉識別技術(shù)在產(chǎn)品中的應(yīng)用
 
       以上是我們的一些學術(shù)成績。但是,如果這些成果不能落地,最終不能進入到產(chǎn)品階段,不能夠讓大家用起來,那就成了紙上談兵。那么,我們的成果怎樣落地,怎樣能夠在產(chǎn)品中得到應(yīng)用呢?
 

       1、多個應(yīng)用方向
 

       ?平安城市與智慧商業(yè)
 

       首先是平安城市。我們的人群監(jiān)控系統(tǒng)能夠時實分析出整個場景中有多少人,每一點上人的密度,每個進出口的人的數(shù)量,或者是各種逆向流動等特殊情況,都能夠監(jiān)控。大家都知道上海外灘發(fā)生過大規(guī)模的踐踏事件,假如外灘有我們這套系統(tǒng),那次悲劇完全是可以避免的。
 

       還有人臉識別技術(shù),在各種場景下,比如地鐵口、火車站等,完全不需要指令就可以進行高精度的人臉識別,這是“靜場景”的人臉識別。除此之外,我們還可以“抓人”,在百米之外看到目標,能夠把他拉近以后進行識別。也能夠從百米之外將車輛拉近,識別出它的車牌、車型等等。這是對人群的遠距離監(jiān)控。

       在對視頻結(jié)構(gòu)化以后,我們在每個城市都可以有上百萬的監(jiān)控攝相頭,但沒有那么多的人力來篩選。那么,我們可以通過視頻對人、車和非機動車進行監(jiān)測和標注,包括對人的性別、體貌特征、車型、車牌、顏色等等進行監(jiān)測。它可以自動監(jiān)測出在什么時段,在什么位置,一個有著什么樣具體特征的人出現(xiàn)等等信息。
 

       智慧商業(yè)與此類似,就是商場各個角落的情況,都可以做到實時監(jiān)控。
 

       ?自動駕駛與人臉檢測定位系統(tǒng)

       我們的另一個方向是自動駕駛。現(xiàn)在自動駕駛炒得非常熱。但是,做出一個能在路上跑的車,這是汽車廠商一百年前就做的事,不屬于人工智能范疇。我們要做的,是支撐這些新功能背后的核心技術(shù)。在自動駕駛里,有30項基本技術(shù),每一項都是有一定的門檻,需要很多人付出卓絕的努力。
 

       比如說物體檢測功能,對任何物體進行跟蹤檢測,是我們在2015年取得最好成績的那次競賽的參賽項目。這個技術(shù)能夠讓我們對街道上所有的機動車、非機動車和行人進行時實跟蹤監(jiān)測。同時,我們可以監(jiān)測出馬路上的人在往哪個方向看,有沒有注意到車來的方向。還可以監(jiān)測車道線,并且不受大霧、大雨等極端天氣的影響。

       還有場景的感知。空間在什么地方,所有物體的分割、分類都可以進行實時感知。包括對司機的監(jiān)測等等。當然,這不是全自動駕駛,而是輔助駕駛。是將人的行為表現(xiàn)反饋回來,通過人與汽車面板的交互、協(xié)同來完成駕駛?cè)蝿?wù)。
 

       ?在手機中的應(yīng)用
 

       i.手機相冊
 

       如果用戶手機中有一張模糊的照片,用我們的深度算法,可以把暗光增強,把非常小的圖像放大,使它變成一張很清晰的圖像,甚至可以識別出圖片所中一些細小又模糊的文字。包括圖像的顏色恢復、先拍照后聚焦等等功能。這是一件很神奇的事,用戶可以先拍一張照片,然后再選擇在哪一個點聚焦。還可以用濾鏡把圖片變成各種各樣風格的畫面。這是我們兩年前就做出的技術(shù)。同時,我們也是第一個用深度學習做圖像處理,并且第一個把它真正產(chǎn)品化的機構(gòu)。
 

       可以說,所有客戶端的相冊都有我們公司所提供的相冊管理服務(wù)。比如小米手機里就有我們的相冊管理軟件——寶寶相冊,這是小米的一個亮點。
 

       ii.換臉術(shù)
 

       在華為的相冊管理里,人臉和40類場景也是我們提供的。這是一個很好玩的應(yīng)用特效,可以將照片上的人臉換成另一張臉。
 

       iii.特效技術(shù)
 

       與換臉相類似的技術(shù)是做各種各樣的特效。facv和各種直播的特效,以及韓國的cno的背后,都有我們的支持,秒拍、花椒、獵豹、移動都是我們的客戶,加起來大概有上百家。在大家經(jīng)常看到的特效軟件背后,也是我們的
 

       在VR游戲、電視遙控等領(lǐng)域,都有我們的應(yīng)用。遠程教育也是我們的應(yīng)用之一。在遠程教學中,教師可以觀察到學生的聽課狀態(tài)。
 

       ?線上空間與手機軟件
 

       在線上我們也有用武之地。比如應(yīng)用于借貸寶,還有跟中國移動的獨家合作。目前,在中國移動買一個手機卡需要進行身份的識別和認證,這方面我們在聯(lián)合開發(fā)其它產(chǎn)品。
 

       樂視上網(wǎng)也采用了人臉識別系統(tǒng)。手機也可以嵌入我們的系統(tǒng)。
 

       還有一些技術(shù)未必馬上就能夠應(yīng)用于產(chǎn)品,但是未來必然會用到,它們也是我們開辟的新的研發(fā)方向。比如說,我們用兩個人上傳到網(wǎng)絡(luò)的照片可以分析出這兩個人的表情、距離、方向,彼此之間的關(guān)系是信任的,還是依賴的。這些技術(shù)的用處是什么呢?其中的一個應(yīng)用是大數(shù)據(jù)征信。比如我發(fā)現(xiàn)你跟一個非常高端的人士有一張合影,你的信譽值就有可能會提高。而如果你跟罪犯有著密切的關(guān)系,那么如果我是銀行,是不會把錢借給你的。
 

       我們也可以用VDIA做這件事,用每一幀圖像分析出兩個人的關(guān)系。當然了,不是所有的問題都能夠得到解決,比如說,我兒子跟這個玩具小娃娃的關(guān)系,我們怎么分析?對6個月大的嬰兒怎樣去分析?我想人工智能還不能完全理解這其中的奧秘。
 

       但是,通過對視頻的分析,我們可以分析出某一個情景是不是災難,從而對其進行預警。
 

       2、一個技術(shù)核心
 

       所有這一切,聽起來有十幾個方向,但其背后的技術(shù)都是相通的,都是整個人體的交互。它主要還是在用一個核心的大腦在與各個行業(yè)進行結(jié)合,這是一個高門檻的技術(shù)。
 

       如果你玩過微軟的TNET(音),就知道可以用人控制這個游戲。但是,TNET是一個深度攝相頭,兩個攝相頭加上一個VC,價格大概在幾百美元。我們現(xiàn)在做的是用一個一、二百美元的單向攝像頭就可以實現(xiàn)這個功能,并且有著廣泛的應(yīng)用場景。比如在智能家居、游戲等領(lǐng)域,我們都是第一個做出時實效果的機構(gòu)。
 

       3、與2B企業(yè)的合作空間
 

       目前,有好幾家廠商,包括OPPO、360、微博相冊等等已經(jīng)采用了我們的技術(shù)。前段時間,有一個公司做的toC產(chǎn)品跟我們的技術(shù)有些類似,但實際上,我們并不做C端,而是跟toB的企業(yè)合作。
 
       我們自己并不做手機,也不會親自做攝相頭,而是與這些產(chǎn)業(yè)的領(lǐng)袖、產(chǎn)業(yè)中最優(yōu)秀的企業(yè)進行戰(zhàn)略合作,然后把我們的技術(shù)植入到對方的產(chǎn)品中去。

  • 分享本文到:

  • 關(guān)注隨銳:

    微信
    微信掃描,獲取最新資訊
  • 聯(lián)系我們:

    如果您有任何問題或建議,
    請與我們聯(lián)系:
    suiruikeji@suirui.com
×