freesexvideos性少妇欧美,httpwww色午夜com日本,久久精品成人免费国产,欧美贵妇videos办公室,国产成人精品一区二区三区免费

您當(dāng)前的位置 :環(huán)球傳媒網(wǎng)>科技 > 正文
Faceboo 宣布一項(xiàng)名為Ego4D研究項(xiàng)目
2021-10-21 09:47:12 來(lái)源:DeepTech深科技 編輯:

近日,F(xiàn)acebook 宣布了一項(xiàng)名為 Ego4D 的研究項(xiàng)目,以訓(xùn)練下一代人工智能模型。

Facebook 希望 Ego4D 能像 ImageNet 處理照片一樣處理第一人稱視頻。ImageNet 只是大量照片的集合,并不能體現(xiàn)人類(lèi)日常生活中的那種復(fù)雜與混亂,F(xiàn)acebook 想要為此做些改變。

據(jù)了解,Ego4D 數(shù)據(jù)集包含 3025 小時(shí)的視頻,由 855 人錄制,這些人來(lái)自 9 個(gè)國(guó)家(美國(guó)、英國(guó)、印度、日本、意大利、新加坡、沙特阿拉伯、哥倫比亞和盧旺達(dá))的 73 個(gè)不同地區(qū)。之前最大的第一人稱視頻數(shù)據(jù)集由人在廚房里的鏡頭組成,共 100 小時(shí)。

錄像被收集后,盧旺達(dá)的眾包工人花費(fèi)了 25 萬(wàn)小時(shí)觀看了數(shù)千個(gè)視頻片段,并寫(xiě)了數(shù)百萬(wàn)個(gè)描述所拍攝場(chǎng)景和活動(dòng)的注釋以用于 AI 培訓(xùn)。

紐約石溪大學(xué)(Stony Brook University)和谷歌大腦(Google Brain)的計(jì)算機(jī)視覺(jué)研究員邁克爾·瑞奧(Michael Ryoo)對(duì)此評(píng)價(jià)說(shuō):“這個(gè)數(shù)據(jù)集里的視頻更接近人類(lèi)所觀察的世界,這在同類(lèi)數(shù)據(jù)集中是第一個(gè)。”

Facebook還與多所大學(xué)進(jìn)行了合作,包括美國(guó)的卡內(nèi)基·梅隆大學(xué)(Carnegie Mellon University)、英國(guó)的布里斯托大學(xué)(University of Bristol)、新加坡國(guó)立大學(xué)(National University of Singapore)和日本東京大學(xué)(The University of Tokyo)等。

Ego4D 項(xiàng)目負(fù)責(zé)人克里斯汀·格勞曼(Kristen Grauman)說(shuō):“我們希望合作伙伴首先是該領(lǐng)域的領(lǐng)先專家,但也有考慮地域多樣性。”

格勞曼進(jìn)一步說(shuō),“傳統(tǒng)上,機(jī)器人通過(guò)在世界上做事或被手持設(shè)備來(lái)進(jìn)行學(xué)習(xí)。但只有通過(guò)我們的眼睛真正了解世界,它們才能在日常生活中幫助我們。”

從理論上講,增強(qiáng)現(xiàn)實(shí)(AR)或虛擬現(xiàn)實(shí)(VR)應(yīng)用程序可以回答諸如“我的車(chē)鑰匙在哪里?”“在我第一次飛往法國(guó)的航班上,我吃了什么?坐在我旁邊的人是誰(shuí)?”等問(wèn)題;AI助理也可以理解人們?cè)噲D做什么,并提供說(shuō)明或有用的社交提示。

“這些看起來(lái)有點(diǎn)科幻的事情,其實(shí)離我們并不遠(yuǎn)。” 格勞曼說(shuō),“ImageNet 在短時(shí)間內(nèi)推動(dòng)了一些重大進(jìn)步,我們同樣期待 Ego4D 所要達(dá)成的成就。”

大型數(shù)據(jù)集可以加速 AI 技術(shù)的研究。但這種技術(shù)發(fā)展速度到底有多快,將最終走向何方,還有待進(jìn)一步觀察。

Facebook 表示,將于 11 月向研究人員公開(kāi) Ego4D 數(shù)據(jù)集。同時(shí)該公司還說(shuō),會(huì)將 Ego4D 的算法內(nèi)置在智能眼鏡中,以記錄佩戴者的日常生活。同樣,接受 Ego4D 訓(xùn)練的系統(tǒng)還可以用于家庭助理機(jī)器人。

然而,有人對(duì)這種技術(shù)潛在的濫用表示擔(dān)憂,并表示這對(duì)人們的隱私有著巨大的影響。值得一提的是,美國(guó)參議院最近也指責(zé) Facebook 將利益凌駕于人們的福祉之上。

Facebook 和其他一些大型科技公司的商業(yè)模式是從人們的在線行為中盡可能多地收集數(shù)據(jù),然后賣(mài)給廣告商。Ego4D 項(xiàng)目中描述的 AI 可以將數(shù)據(jù)收集行為擴(kuò)展至人們的線下日常生活之中。

這就導(dǎo)致我們?cè)诩抑械男袨?,做了哪些活?dòng),與誰(shuí)共度時(shí)光等等,只要是我們目光所及的地方,都逃不過(guò) AI 的觀察,人們將毫無(wú)隱私可言。

格勞曼說(shuō):“在做 Ego4D 項(xiàng)目時(shí),我們也意識(shí)到有一些隱私方面的工作需要做,尤其是當(dāng)將隱私從探索性研究領(lǐng)域帶出融入到產(chǎn)品中時(shí)。”

他還表示,參與 Ego4D 項(xiàng)目的人員必須避免捕捉個(gè)人識(shí)別特征,包括人們的臉、談話、紋身和珠寶。錄制視頻中的個(gè)人身份信息已被刪除,且模糊了旁觀者的臉部和車(chē)牌號(hào)。

專門(mén)研究視頻技術(shù)的人權(quán)組織證人(Witness)中的成員山姆·格雷戈里(Sam Gregory)說(shuō),“Facebook的這項(xiàng)技術(shù)對(duì)旁觀者記錄抗議或警察虐待行為等方面可能有用,但我對(duì)其商業(yè)應(yīng)用的擔(dān)憂遠(yuǎn)超過(guò)了這些好處。”他接著說(shuō):“這些數(shù)據(jù)如何存儲(chǔ)?誰(shuí)可以訪問(wèn)?它的使用方式到底如何?”

電子前哨基金會(huì)(Electronic Frontier Foundation)的羅里·米爾(Rory Mir)說(shuō):“許多人都知道 Facebook 在隱私方面的不良記錄,其利用監(jiān)控來(lái)影響用戶,又將這種影響出售給付費(fèi)廣告客戶。Facebook 目前正在尋求 AR 和 VR 方面的競(jìng)爭(zhēng)優(yōu)勢(shì),因?yàn)檫@對(duì)擴(kuò)大它所收集數(shù)據(jù)的數(shù)量和類(lèi)型至關(guān)重要。”

面對(duì)這些質(zhì)疑的聲音,F(xiàn)acebook 一位發(fā)言人說(shuō):“Ego4D 純粹是為了促進(jìn)更廣泛的科學(xué)界的進(jìn)步而進(jìn)行的研究。”在被問(wèn)及未來(lái)的計(jì)劃時(shí),他說(shuō):“現(xiàn)在我們還沒(méi)有可供分享的產(chǎn)品應(yīng)用或商業(yè)方面的用途。”

據(jù)悉,Ego4D 中的 AI 算法可能會(huì)被用到 Facebook 的元宇宙項(xiàng)目中。今年 7 月,F(xiàn)acebook 創(chuàng)始人馬克·扎克伯格(Mark Zuckerberg)曾表示,希望在 5 年內(nèi)將Facebook 變成一家元宇宙公司。

-End-

關(guān)鍵詞: 研究項(xiàng)目 Ego4D Facebook 隱私擔(dān)憂

分享到:
版權(quán)和免責(zé)申明

凡注有"環(huán)球傳媒網(wǎng)"或電頭為"環(huán)球傳媒網(wǎng)"的稿件,均為環(huán)球傳媒網(wǎng)獨(dú)家版權(quán)所有,未經(jīng)許可不得轉(zhuǎn)載或鏡像;授權(quán)轉(zhuǎn)載必須注明來(lái)源為"環(huán)球傳媒網(wǎng)",并保留"環(huán)球傳媒網(wǎng)"的電頭。

Copyright ? 1999-2017 cqtimes.cn All Rights Reserved 環(huán)球傳媒網(wǎng)-重新發(fā)現(xiàn)生活版權(quán)所有 聯(lián)系郵箱:8553 591@qq.com