5 月 19 日,2018 年中國(guó)圖靈大會(huì)(ACM TURC 2018)在上海舉行,產(chǎn)學(xué)研各界集聚一趟,分享計(jì)算機(jī)領(lǐng)域的最新技術(shù)進(jìn)展,并探討當(dāng)社會(huì)前沿科技的問(wèn)題和跨領(lǐng)域的發(fā)展趨勢(shì)??焓謩?chuàng)始人兼 CEO 宿華在題為「AI 如何提升幸福感」的演講中描述了快手滿載技術(shù)與人文的一面。
此外,快手 AI 技術(shù)副總裁鄭文也出席了該大會(huì),與 ACM 圖靈獎(jiǎng)得主、有「互聯(lián)網(wǎng)之父」之稱的 Vinton Cerf 教授,ACM 圖靈獎(jiǎng)得主、哈佛大學(xué) Leslie Valiant 教授,澳門大學(xué)副校長(zhǎng)倪明選教授,商湯科技聯(lián)合創(chuàng)始人、CEO 徐立,資深傳媒人楊瀾共同探討人工智能的未來(lái)。
宿華提到最早在谷歌的工作經(jīng)歷讓他開(kāi)始接觸到機(jī)器學(xué)習(xí),在解決問(wèn)題中不斷認(rèn)識(shí)和理解人工智能,在搜索引擎中利用 AI 匹配問(wèn)題和答案。后來(lái)的工作中,他不斷思考「AI 應(yīng)該用來(lái)解決什么樣的問(wèn)題」,直到在快手創(chuàng)立之后,這個(gè)答案越來(lái)越清晰和具體——提升人類的幸福感。
關(guān)于幸福感,宿華是這樣定義的,記錄可以提升人們的幸福感:一個(gè)是看見(jiàn)別人,一個(gè)是被別人看見(jiàn)。每個(gè)人心中都有這樣的渴望,希望自己的狀態(tài),自己的情感,自己的靈感,能夠被更多的人看見(jiàn),被更多的人理解。我想記錄是其中最關(guān)鍵的一環(huán),是能夠使得每個(gè)人幸福感都得到提升的可能的方案。
經(jīng)過(guò) 7 年的創(chuàng)業(yè),快手平臺(tái)的日活躍用戶量已經(jīng)達(dá)到 1 億,用戶累計(jì)發(fā)布短視頻超過(guò) 50 億條,每天有 150 億條視頻被播放,用戶日均使用時(shí)長(zhǎng)超過(guò) 60 分鐘。在這背后,快手后天的工作人員們需要面對(duì)一個(gè)前所未有的難題——每天新增千萬(wàn)條量級(jí)的、內(nèi)容各異的視頻,以及更為重要的將內(nèi)容匹配到特定的用戶手里。
「過(guò)去的視頻平臺(tái),庫(kù)里每天新增的視頻從來(lái)沒(méi)有突破過(guò)千萬(wàn)量級(jí)的,這在歷史上都是沒(méi)有過(guò)的?!顾奕A說(shuō)道。
快手需要面對(duì)的問(wèn)題可以拆解為兩個(gè),一是處理每天海量的增量視頻內(nèi)容,二是兼顧到每個(gè)用戶需求,包括長(zhǎng)尾用戶。為此,快手提出了一套基于 AI 的技術(shù)解決方案,包括從視頻內(nèi)容生產(chǎn)、到視頻理解、用戶理解,以及最后的分發(fā)系統(tǒng)的每個(gè)環(huán)節(jié)。
在內(nèi)容創(chuàng)作環(huán)節(jié),宿華介紹,快手提供了魔法表情、整體姿態(tài)檢測(cè)、AR 特效等不同模塊來(lái)豐富內(nèi)容記錄的形式和效果,這些實(shí)時(shí)效果的實(shí)現(xiàn)來(lái)自于人體姿態(tài)估計(jì)、視覺(jué)慣性里程估計(jì)、手勢(shì)識(shí)別等技術(shù)的運(yùn)用,以及快手自主研發(fā)的搭建的 YCNN 深度學(xué)習(xí)推理引擎支持。
快手 AI 技術(shù)副總裁鄭文舉例,快手會(huì)通過(guò)深度學(xué)習(xí)算法來(lái)檢測(cè)用戶拍攝的場(chǎng)景類別,并據(jù)此選擇最適合的濾鏡效果來(lái)提升視頻的質(zhì)量。通過(guò)人體關(guān)鍵點(diǎn)識(shí)別技術(shù),快手能夠?yàn)橛脩舻闹w加上特效,比如讓虛擬的火球跟隨人手的位置進(jìn)行運(yùn)動(dòng),此外還有很多人臉裝飾貼紙、AR 模型等基于 AI 技術(shù)的特效,讓每個(gè)用戶的記錄形式更加豐富多彩。
在視頻理解層面,快手基于視頻多模態(tài)分類、描述、檢索算法,對(duì)視頻中的人臉、圖像、音樂(lè)、語(yǔ)音進(jìn)行多個(gè)維度的解讀,從高層語(yǔ)義不斷進(jìn)階到情感識(shí)別層面。在系統(tǒng)底層,快手建立了多機(jī)多卡深度學(xué)習(xí)訓(xùn)練推理平臺(tái)和數(shù)據(jù)標(biāo)注平臺(tái)。
在數(shù)據(jù)標(biāo)注環(huán)節(jié),宿華提到,快手并不是純粹地從內(nèi)容出發(fā),還包括基于用戶的行為數(shù)據(jù)?!缚焓值暮诵膬?yōu)勢(shì)得益于我們是一個(gè)社區(qū),社區(qū)里面每天有上億的人在幫我們標(biāo)注,他們的點(diǎn)擊點(diǎn)贊行為,他們的關(guān)注行為,他們的轉(zhuǎn)發(fā)行為,他們的播放時(shí)長(zhǎng),他們?nèi)撕腿酥g相互的關(guān)系,網(wǎng)狀的關(guān)系,就在幫助我們更好的理解用戶,我們不是純粹從內(nèi)容出發(fā)的,我們還有行為數(shù)據(jù)。」
在用戶理解層面,快手在海量用戶和 50 億視頻中間建立起一套雙向感知系統(tǒng)。從早年的 Linux 人工干預(yù)方式,進(jìn)化到當(dāng)下的基于深度學(xué)習(xí)的實(shí)時(shí)在線學(xué)習(xí)推薦系統(tǒng),快手能夠做到理解用戶的實(shí)時(shí)行為,并不斷挖掘用戶的潛在興趣。
基于用戶實(shí)時(shí)行為的理解,快手通過(guò)前端的在線推薦以及后臺(tái)的秒級(jí)更新模型的日志系統(tǒng)實(shí)現(xiàn)精準(zhǔn)匹配的內(nèi)容分發(fā)。在鄭文參與的論壇環(huán)節(jié),關(guān)于算法的智能推薦也引起了一些爭(zhēng)議,大眾普遍認(rèn)為智能推薦只會(huì)根據(jù)用戶的興趣愛(ài)好推薦內(nèi)容,久而久之用戶就會(huì)被自己關(guān)心的事物圍繞,從而失去對(duì)外界的整體認(rèn)知,形成「信息繭房」效應(yīng)。
對(duì)此,鄭文分享了快手的推薦機(jī)制:快手的推薦給用戶的內(nèi)容,絕非僅僅用戶最感興趣的部分,而是會(huì)考慮到內(nèi)容的多樣性,在更廣闊的領(lǐng)域發(fā)現(xiàn)感興趣的內(nèi)容。
例如某一位用戶對(duì)足球感興趣,那么后臺(tái) AI 系統(tǒng)除了給他推送足球和其他球類甚至其他類別體育運(yùn)動(dòng)相關(guān)內(nèi)容,還會(huì)對(duì)同樣喜歡足球的群體進(jìn)行分析,找到他們除了足球以外還有哪些興趣點(diǎn),從而把這些興趣點(diǎn)相關(guān)內(nèi)容也推送給這位用戶,幫助用戶不斷拓展興趣邊界,打破「信息繭房」,也與其他人建立更強(qiáng)更深入的連接。
最后,宿華提出了一系列對(duì)于短視頻與 AI 的未來(lái)研究方向的思考,在這之中他對(duì)于「多模態(tài)信息融合的視頻理解」最感興趣,他提到,這里的理解不僅在內(nèi)容層面,還包括對(duì)于視頻中人物隱含在表情、聲線里的情緒、情感等。
以下是宿華在 2018 年中國(guó)圖靈大會(huì)(ACM TURC 2018)的演講全文,經(jīng)極客公園編輯。
宿華:在座的各位老師、各位同學(xué)、各位朋友,上午好。
大概 12 年前,我剛加入谷歌,開(kāi)始接觸、學(xué)習(xí)和應(yīng)用機(jī)器學(xué)習(xí)的技術(shù),主要為解決搜索引擎當(dāng)中的一些問(wèn)題,學(xué)了很多前人的推導(dǎo)公式,學(xué)了很多的模型、思想。
后來(lái)我思考,AI 應(yīng)該用來(lái)解決什么樣的問(wèn)題,不是數(shù)學(xué)上的問(wèn)題,而是說(shuō)為社會(huì)、為人類應(yīng)該解決什么問(wèn)題,想了很長(zhǎng)時(shí)間有了一個(gè)答案。在這些年實(shí)踐的領(lǐng)域中,我想明白了不管我們做什么樣的技術(shù),最后都應(yīng)該用于提升人類的幸福感,或者是做到幸福感的改善。AI 當(dāng)然是當(dāng)下最火最熱的技術(shù),下面我給大家分享的就是我這些年是怎樣去用 AI 解決幸福感的問(wèn)題。
首先有一個(gè)觀察,我們發(fā)現(xiàn)記錄是可以提升人們幸福感的,因?yàn)閷?duì)于記錄來(lái)講,每一份記錄都有兩類人:一個(gè)是記錄的產(chǎn)生者、記錄者,一個(gè)是記錄的觀察者。
對(duì)于觀察者來(lái)講,通過(guò)別人的記錄可以看到更廣闊的世界,在城市里可以看到鄉(xiāng)村農(nóng)產(chǎn)品生產(chǎn),在鄉(xiāng)村里可以看到國(guó)外的世界,土耳其的熱氣球、非洲的小孩可以和中國(guó)人交朋友,在日本的留學(xué)生可以和自己在中國(guó)的家人、朋友交流。
一個(gè)是看見(jiàn)別人,一個(gè)是被別人看見(jiàn)。我們想每個(gè)人心中都有一個(gè)渴望,希望自己的狀態(tài),自己的情感,自己的靈感,能夠被更多的人看見(jiàn),被更多的人理解,我想記錄是其中最關(guān)鍵的一環(huán),是能夠使得每個(gè)人幸福感都得到提升的可能的方案。
快手是 2011 年成立的,我們干了 7 年的時(shí)間,一路上經(jīng)歷了非常多的挑戰(zhàn),經(jīng)歷了日活在 1 億量的網(wǎng)絡(luò)社區(qū)。我們?cè)趺醋龅哪兀?/p>
我們?cè)谟每萍嫉牧α咳ヌ嵘恳粋€(gè)人的幸福感,我們?cè)趪L試讓每一個(gè)人都能夠記錄自己的生活狀態(tài),每個(gè)人都有機(jī)會(huì)留下自己的記錄呈現(xiàn)給這個(gè)世界,每個(gè)人都能夠讓世界發(fā)現(xiàn)自己,每個(gè)人都能夠因此消減一點(diǎn)點(diǎn)的孤獨(dú)感,提升一點(diǎn)點(diǎn)的幸福感,從而能夠提升整個(gè)社會(huì)幸福感的總和。
我們?cè)谶@條路上已經(jīng)走了七年的時(shí)間,直到上周,我們大概累計(jì)有 50 億條視頻。50 億條視頻是什么概念?
快手用戶平均每天能夠產(chǎn)生一千萬(wàn)到兩千萬(wàn)條視頻。中國(guó)有兩千多個(gè)縣,我們能夠拍到每個(gè)縣,在座的各位你們的家鄉(xiāng)每個(gè)縣都能夠看到數(shù)千條量級(jí)的視頻。用戶在任何時(shí)刻打開(kāi)快手,都可以看到任何一個(gè)地方。這 50 億條視頻,幾乎都不重復(fù)。并非某些視頻的庫(kù)雖然很大,但是大體是同一個(gè)電影、或者綜藝的剪輯;在快手產(chǎn)生的、留下來(lái)的 50 億條視頻,都是生活中活生生的、新鮮的生活狀態(tài),形形色色的人,形形色色的事。
我們剛才講,其實(shí)幸福感需要讓我們每一個(gè)人都可以看見(jiàn),被這個(gè)世界發(fā)現(xiàn),能夠讓自己的情緒情感被別人知道,被人感知,被別人看到,被別人理解。但是 50 億的量級(jí)是非常龐大的量級(jí)。我們過(guò)去的視頻平臺(tái),庫(kù)里每天新增的視頻從來(lái)沒(méi)有突破過(guò)千萬(wàn)量級(jí)的,這在歷史上都是沒(méi)有過(guò)的。所以在座的這些內(nèi)容、這些視頻,和那些觀察者之間匹配的時(shí)候,實(shí)際上以前說(shuō)照顧好頭部就可以了,可是面對(duì) 50 億的生活片段,我們?cè)趺窗验L(zhǎng)尾的用戶照顧好,真的能夠讓每一個(gè)人都得到一些關(guān)注,每個(gè)人都消減自己的孤獨(dú)感,這實(shí)際上是非常艱難的課題。
我在十幾年前,在谷歌的時(shí)候就研究這個(gè)問(wèn)題,我們做很好的匹配,做很好的信息的分發(fā)。實(shí)際上我們整體是在用 AI,用機(jī)器學(xué)習(xí)的技術(shù)在嘗試去解決。
歷史上的其他的視頻平臺(tái)不是那么需要,特別是每個(gè)視頻數(shù)量沒(méi)有那么多的時(shí)候,如果每年只新增兩百部電影,三百部電視劇,每一個(gè)電影、每一個(gè)電視劇,或者每一個(gè)綜藝節(jié)目,我們都可以用人工標(biāo)注的方式把它分析、理解的特別清楚。但是,每天新增千萬(wàn)量級(jí)視頻,不可能找人標(biāo)出來(lái),也不能找編輯去像傳統(tǒng)的媒體按板塊分發(fā)。我們想要去照顧長(zhǎng)尾用戶、想要去照顧每一個(gè)人,這樣的平臺(tái),我們更加無(wú)法挑選那些頭部的,極少數(shù)的熱的視頻給大家看。
那么我們的解決方法是什么?是用 AI,應(yīng)用在四個(gè)環(huán)節(jié)。第一個(gè)環(huán)節(jié)內(nèi)容的生產(chǎn),是記錄的產(chǎn)生環(huán)境。第二個(gè)環(huán)節(jié),如何讓這些人去理解視頻。我是 80 后,80 后從小就喊理解萬(wàn)歲,我相信理解也是機(jī)器今天能夠做的一個(gè)主要的方向之一,讓機(jī)器像我們?nèi)祟愐粯幽軌蚶斫膺@個(gè)世界,能夠理解每一個(gè)人,讓機(jī)器理解每一個(gè)生活的片斷,這也是快手公司在做的事情,基于這樣的理解,我們后面才會(huì)有整個(gè)很好的分發(fā),有一個(gè)更好的平臺(tái)去照顧到每一個(gè)人。我們理解每一段視頻,每一個(gè)視頻片斷,我們要理解每一個(gè)用戶的偏好,理解每一個(gè)用戶潛在的偏好,最后才能做一個(gè)很好的分發(fā)視頻。
第一個(gè)模塊在記錄,下面一個(gè)視頻,今年 4 月份、5 月份上線的一個(gè)魔法表情,能夠快速模擬一個(gè)人,從年輕到老去的過(guò)程。第二個(gè)是整體的姿態(tài)檢測(cè),里面還有 AR 的玩法,實(shí)際上他背后是基于我們自己研發(fā)的一套 3D 系統(tǒng)的 AR 系統(tǒng),我們 YCNN 的深度學(xué)習(xí)系統(tǒng),這個(gè)深度學(xué)習(xí)系統(tǒng)它的核心優(yōu)勢(shì)就是能夠在非常低端的手機(jī)上,跟我們一起實(shí)現(xiàn)跨平臺(tái),不止在安卓、iPhone 上運(yùn)行的效率提高,同時(shí)能夠把模型做得非常小,速度做得非常快。
最重要的是做了非常多的視頻中的記錄的玩法,解決人體姿態(tài)識(shí)別的問(wèn)題,人臉關(guān)鍵點(diǎn)檢索問(wèn)題,視覺(jué)慣性里程計(jì),還有手勢(shì)識(shí)別。
讓機(jī)器理解這些視頻是什么內(nèi)容,當(dāng)一個(gè)生活的片斷上傳過(guò)來(lái)以后,我們立即會(huì)將一系列的信息拿掉,比如檢測(cè)有幾個(gè)人,進(jìn)一步需要檢測(cè)是男人還是女人,是老人還是小孩,是中國(guó)人還是外國(guó)人,能夠把之間的關(guān)系理解,就變得越來(lái)越難。我們除了跟人有關(guān)的識(shí)別,還做了大量圖像方面的,有場(chǎng)景的識(shí)別,是在會(huì)場(chǎng)還是在操場(chǎng),是在家里或辦公室,我們做了很多的場(chǎng)景識(shí)別。
更進(jìn)一步、更難一點(diǎn)的,在做飯、做菜,還是在釣魚(yú),各方面場(chǎng)景的場(chǎng)所,還有他正在做的事,是在賽車,還是在大馬路上騎自行車,還是卡車、轎車,有更多的更高級(jí)的識(shí)別。當(dāng)然我們還做了顏值識(shí)別,比較好玩,目前線上還沒(méi)有這個(gè)應(yīng)用。
這其中還有和語(yǔ)音有關(guān)的理解,就是我們經(jīng)常發(fā)現(xiàn)一個(gè)視頻,他里面很多信息是包含在音頻里面,特別是傳遞情緒,人類的很多情緒是在聲音里面,再轉(zhuǎn)化為語(yǔ)速、語(yǔ)調(diào)起伏,或者他用得配樂(lè),就是音樂(lè)本身的情感屬性,我們做了大量的音樂(lè)的結(jié)構(gòu)化的理解。我們最高的并發(fā)大概是 20 萬(wàn),在快速的語(yǔ)言里面,有幾十萬(wàn)的并發(fā)的、實(shí)時(shí)的語(yǔ)音識(shí)別的需求,我們到現(xiàn)在為止,還是僅用自己自研的,因?yàn)?20 萬(wàn)的并發(fā)率,對(duì)機(jī)器的要求特別高,找第三方的話,不愿意投入機(jī)器。
另外可以快速的語(yǔ)音識(shí)別還有一個(gè)難點(diǎn),我們的場(chǎng)景是生活場(chǎng)景,它不是收音干凈的。在生活中可能有兩個(gè)人在說(shuō)話,可能有汽車在叫,可能在操場(chǎng)里面,或者在教室,整個(gè)是一個(gè)復(fù)雜的場(chǎng)景,這里面我們?cè)鯓幽軌蜃龅阶詈玫?,速度要最快的語(yǔ)音識(shí)別,幾十萬(wàn)部的并發(fā)識(shí)別,對(duì)我們來(lái)說(shuō)也是一個(gè)非常大的挑戰(zhàn)。從全球板塊來(lái)講,我們會(huì)接受一定程度上的識(shí)別率的下降,但是要讓性能和讓場(chǎng)景的適應(yīng)性更好,這是快手目前面臨的問(wèn)題之一。在底層,我們有自己研發(fā)的,一個(gè)大規(guī)模并行的機(jī)器學(xué)習(xí)的平臺(tái),是做模擬訓(xùn)練和推理,也包括做一些數(shù)據(jù)的標(biāo)注。
當(dāng)然對(duì)快手來(lái)講,我們做視頻內(nèi)容的理解,很大程度上得益于我們是一個(gè)社區(qū),社區(qū)里面每天有上億的人在幫我們標(biāo)注,他們的點(diǎn)擊點(diǎn)贊行為,他們的關(guān)注行為,他們的轉(zhuǎn)發(fā)行為,他們的播放時(shí)長(zhǎng),他們?nèi)撕腿酥g相互的關(guān)系,網(wǎng)狀的關(guān)系,就在幫助我們更好的理解用戶,我們不是純粹從內(nèi)容出發(fā)的,我們還有行為數(shù)據(jù)。但是如何把用戶的行為數(shù)據(jù)和內(nèi)容清晰組合在一起,特別是把內(nèi)容里面的視覺(jué)加上時(shí)間軸以后進(jìn)行連續(xù)的視頻分析,再加上深度的分析,再加上用戶的行為分析,整個(gè)多模的集成組合在一起,也是一個(gè)非常有意思的課題。
第三個(gè)部分是理解用戶,當(dāng)然這里面的用戶并不是內(nèi)容的記錄者,是指看內(nèi)容,當(dāng)你拿出你的手機(jī),打開(kāi)一個(gè) APP 的時(shí)候,我們希望幫助你發(fā)現(xiàn)這個(gè)世界,這時(shí)候?qū)ζ脚_(tái)來(lái)講,我們需要理解你的興趣偏好,更主要的我們還需要理解你潛在的興趣,就是你過(guò)去還沒(méi)有探索過(guò),但是你可能會(huì)喜歡的方向和領(lǐng)域把它挖掘出來(lái),才能幫你探索更大的未知領(lǐng)域。
在快手,我們也是得益于我們做的是一個(gè)社區(qū),舉個(gè)例子,其實(shí)在日常生活中,我們?cè)趺慈U(kuò)展自己的興趣偏好,一個(gè)是隨機(jī)的,不小心看到的、很好玩的,比如我當(dāng)年為什么會(huì)選擇做 AI,真的是不小心碰到了有一個(gè)團(tuán)隊(duì)在做機(jī)器學(xué)習(xí)的應(yīng)用,我跟他們聊了以后很感興趣,從此走上了這個(gè)路,這是一個(gè)非常隨機(jī)的狀態(tài)。還有一個(gè)做法是問(wèn)朋友,比如在你的朋友圈里面,或者你的室友、你的同學(xué),到處說(shuō)我昨天打了棒球,很好玩,你要不要一起來(lái)玩一下,我剛學(xué)了一個(gè) C++語(yǔ)言不錯(cuò),要不要一起來(lái)學(xué)一起,朋友告訴你,幫助你擴(kuò)展你的興趣偏好。
在快手我們利用類似的邏輯去做,就是在一個(gè)大的社區(qū)里面,總有那么一些人跟你很相似,但又不完全一樣,跟你相似又關(guān)注他們喜歡的東西,他們喜歡的那些跟你偏好不一樣的東西,你極大的可能會(huì)喜歡,我們嘗試去擴(kuò)展興趣的時(shí)候,去理解一個(gè)用戶群偏好的時(shí)候,我們會(huì)應(yīng)用到里面,盡心去做,這樣可以幫助每一個(gè)人,你不是一個(gè)人在探索,是有社區(qū)里面成千上萬(wàn)的人跟你相似又不同的人在探索,同時(shí)你幫助其他一些跟你相似而不同的人去探索,這樣我們可以更好的理解一個(gè)人的潛力。
接下來(lái)就是視頻分發(fā),我們的記錄能夠更好的產(chǎn)生,在內(nèi)容、視頻、生活片斷中會(huì)最好的理解,在用戶的偏好,潛在的興趣,能夠可以更好的挖掘的基礎(chǔ)之上,我們才能做一個(gè)更好的分發(fā)系統(tǒng)。這個(gè)分發(fā)系統(tǒng)可以真正照顧長(zhǎng)尾,能夠讓更多的人找到自己喜歡的人,找到喜歡自己的人,能夠讓更多的人被看見(jiàn),讓我們看見(jiàn)更大的世界。
我們現(xiàn)在已經(jīng)進(jìn)化到的用實(shí)時(shí)的方法做整個(gè)的日志系統(tǒng),可能有同行知道,早年我們都是用一些偏 Linux 的方法去做,到現(xiàn)在線上已經(jīng)能夠?qū)崟r(shí)的運(yùn)行深度學(xué)習(xí)的方法,并且還不是一個(gè)模型,可能是一個(gè)層疊的組合的復(fù)雜的模型。但是事實(shí)上能夠做到標(biāo)值的響定,用戶的每次行為,事實(shí)上在一秒鐘以后,就能夠反應(yīng)到視頻中去,能夠給用戶更好、更準(zhǔn)、更廣闊的世界,等待用戶去發(fā)現(xiàn)。
未來(lái)我們還有很多想要研究的方向,這里面列了其中一些,我自己最感興趣的是多模態(tài)信息融合的視頻理解,我覺(jué)得總有一天我們的機(jī)器能夠像人類一樣理解一個(gè)視頻,我自己有一次看到一個(gè)特別有意思的視頻,那個(gè)視頻很短,是一個(gè)男生和一個(gè)女生走在一起,擁抱,然后分開(kāi)。看到那個(gè)視頻的時(shí)候,我是能夠理解他們是一對(duì)情侶,他們應(yīng)該是最后一個(gè)擁抱,不清楚什么原因分開(kāi)了。我當(dāng)時(shí)就想說(shuō),是不是機(jī)器有一天也能夠理解到這一層,我在理解這個(gè)視頻的時(shí)候,我發(fā)現(xiàn)有兩個(gè)人,我發(fā)現(xiàn)他們擁抱了之后,發(fā)出的聲音是包含了非常悲傷的情緒,他們分開(kāi)的時(shí)候又很決絕,我們就得到了這樣一個(gè)結(jié)論。也許有一天我們做的人工智能系統(tǒng),能夠像我一樣,像人類一樣去理解生活中的片斷,能夠更好的理解人類的情緒、情感,甚至是靈感。我很期待那一天的到來(lái)。
對(duì)快手來(lái)講,我們是要構(gòu)建一整套的以 AI 技術(shù)為核心的基礎(chǔ)設(shè)施,能夠用科技的力量提升每一個(gè)人獨(dú)特的幸福感覺(jué),能夠讓每一個(gè)人更多更好的感受這個(gè)世界,也能夠更好的被這個(gè)世界所感受到,這是快手最想做的事情。謝謝大家。