二維碼
        企資網(wǎng)

        掃一掃關(guān)注

        當(dāng)前位置: 首頁(yè) » 企業(yè)資訊 » 資訊 » 正文

        印象_2021_人工智能風(fēng)起云涌

        放大字體  縮小字體 發(fā)布日期:2022-02-02 00:19:11    作者:付華麗    瀏覽次數(shù):88
        導(dǎo)讀

        如今,人工智能經(jīng)過(guò)幾年得發(fā)展,再也沒(méi)有當(dāng)初得神秘感。回顧 2021 年,無(wú)論是人工智能技術(shù)還是產(chǎn)業(yè)有很多值得稱(chēng)道得研究和落地成果。AI 基礎(chǔ)理論研究逐步深入,多模態(tài)、機(jī)器學(xué)習(xí)、自然語(yǔ)言處理、計(jì)算機(jī)視覺(jué)、芯片和

        如今,人工智能經(jīng)過(guò)幾年得發(fā)展,再也沒(méi)有當(dāng)初得神秘感。回顧 2021 年,無(wú)論是人工智能技術(shù)還是產(chǎn)業(yè)有很多值得稱(chēng)道得研究和落地成果。AI 基礎(chǔ)理論研究逐步深入,多模態(tài)、機(jī)器學(xué)習(xí)、自然語(yǔ)言處理、計(jì)算機(jī)視覺(jué)、芯片和基礎(chǔ)科學(xué)等領(lǐng)域都有不錯(cuò)得研究引發(fā)熱烈討論。如果你還把目光停留在語(yǔ)音識(shí)別、圖像識(shí)別、智能閱片、病毒測(cè)序……那么下面這些前沿得技術(shù)和產(chǎn)業(yè)研究相信你會(huì)感興趣。

        DeepMind 機(jī)器學(xué)習(xí)框架幫助發(fā)現(xiàn)兩個(gè)數(shù)學(xué)新猜想

        英國(guó)《自然》雜志 12 月 1 日發(fā)表了由人工智能公司 DeepMind 開(kāi)發(fā)得一個(gè)機(jī)器學(xué)習(xí)框架,該框架已經(jīng)幫助發(fā)現(xiàn)了純數(shù)學(xué)領(lǐng)域得兩個(gè)新猜想。這項(xiàng)研究展示了機(jī)器學(xué)習(xí)可以支持?jǐn)?shù)學(xué)研究,這也是計(jì)算機(jī)科學(xué)家和數(shù)學(xué)家首次使用人工智能來(lái)幫助證明或提出紐結(jié)理論和表示論等數(shù)學(xué)領(lǐng)域得復(fù)雜定理。

        純數(shù)學(xué)研究工作得關(guān)鍵目標(biāo)之一是發(fā)現(xiàn)數(shù)學(xué)對(duì)象間得規(guī)律,并利用這些聯(lián)系形成猜想。從 20 世紀(jì) 60 年代起,數(shù)學(xué)家開(kāi)始使用計(jì)算機(jī)幫助發(fā)現(xiàn)規(guī)律和提出猜想,但人工智能系統(tǒng)尚未普遍應(yīng)用于理論數(shù)學(xué)研究領(lǐng)域。

        此次,DeepMind 團(tuán)隊(duì)和數(shù)學(xué)家一起建立了一個(gè)機(jī)器學(xué)習(xí)框架,用于協(xié)助數(shù)學(xué)研究。團(tuán)隊(duì)還表示,他們得框架能鼓勵(lì)未來(lái)數(shù)學(xué)和人工智能得進(jìn)一步合作。

        索尼發(fā)布感存算一體化設(shè)計(jì)近光學(xué)傳感器 AI-ISP 芯片

        隨著物聯(lián)網(wǎng)、零售、智慧城市等產(chǎn)業(yè)得發(fā)展,在相機(jī)產(chǎn)品中搭載 AI 處理能力得需求快速增長(zhǎng)。邊緣端芯片得 AI 處理能力能夠解決只在云計(jì)算系統(tǒng)中出現(xiàn)得問(wèn)題,如延遲、云端通訊、處理開(kāi)銷(xiāo),以及隱私問(wèn)題等。當(dāng)前市場(chǎng)對(duì)邊緣端智能相機(jī)要求包括小型、低功耗、低成本、易部署等,但目前傳統(tǒng)得 CMOS 圖像傳感器只能輸出原始圖像數(shù)據(jù)。因此,在設(shè)計(jì)具有 AI 能力得智能相機(jī)時(shí),將圖像信號(hào)處理器 (ISP)、神經(jīng)網(wǎng)絡(luò)處理能力、DRAM 等結(jié)合在一起十分重要。

        在 2021 IEEE 國(guó)際固態(tài)電路會(huì)議 (ISSCC) 上,索尼發(fā)布了其背照式堆疊型 CMOS 圖像傳感器芯片,芯片能耗比達(dá)到 4.97TOPS/W。通過(guò)將圖像傳感器、CNN 處理器,以及 ISP、DSP、內(nèi)存等子系統(tǒng)進(jìn)行堆疊設(shè)計(jì),在單芯片上實(shí)現(xiàn)完整得 AI 圖像處理能力。

        TRFold引領(lǐng)國(guó)內(nèi)計(jì)算生物學(xué)突圍

        2021 年 7 月,DeepMind 公開(kāi)了 AlphaFold2 得源代碼,并在很好科技雜志 Nature 上發(fā)表論文闡述了 AlphaFold2 得技術(shù)細(xì)節(jié)。同一天 DavidBaker 也公開(kāi)了 RoseTTAFold 得算法,并將研究成果經(jīng) Science 刊出。

        這次開(kāi)源在生物學(xué)界掀起了巨大得波瀾,意味著生物學(xué)家有機(jī)會(huì)擺脫先進(jìn)設(shè)備得掣肘,而這些設(shè)備往往都非常昂貴,只有經(jīng)費(fèi)充足得大學(xué)或研究機(jī)構(gòu)才有條件配置。此后,那些小型團(tuán)隊(duì)或者個(gè)人研究者也能參與到蛋白質(zhì)得研究中來(lái)。

        華夏人工智能企業(yè)天壤自研得深度學(xué)習(xí)蛋白質(zhì)折疊預(yù)測(cè)平臺(tái) TRFold 在基于 CASP14(上年 年第 14 屆國(guó)際蛋白質(zhì)結(jié)構(gòu)預(yù)測(cè)競(jìng)賽) 蛋白質(zhì)測(cè)試集得企業(yè)內(nèi)測(cè)中,獲得 82.7/100 得成績(jī) (TM-Score),已經(jīng)超過(guò)來(lái)自華盛頓大學(xué)得生物學(xué)家 DavidBaker 團(tuán)隊(duì)研發(fā)得 RoseTTAFold81.3/100 得成績(jī),僅次于 AlphaFold2 得 91.1/100 得成績(jī)。在 400 個(gè)氨基酸得蛋白鏈預(yù)測(cè)時(shí),TRFold 僅耗時(shí) 16 秒。這是目前國(guó)內(nèi)所有公開(kāi)蛋白質(zhì)結(jié)構(gòu)預(yù)測(cè)模型中取得得蕞好成績(jī),它標(biāo)志著華夏計(jì)算生物學(xué)領(lǐng)域得表現(xiàn)已經(jīng)處于世界第壹梯隊(duì)。

        在新冠肺炎疫情大流行得背景下,全球生命科學(xué)領(lǐng)域正面臨轉(zhuǎn)型,AI+生命科學(xué)元年正在開(kāi)啟。相信在未來(lái)幾年內(nèi),將有大量得機(jī)構(gòu)和公司加入到技術(shù)創(chuàng)新與生命科學(xué)研究得熱潮中。

        DeepMind 發(fā)表語(yǔ)言模型社會(huì)危害評(píng)估論文

        2021 年 12 月,DeepMind 發(fā)表論文,研究預(yù)訓(xùn)練語(yǔ)言模型帶來(lái)得倫理和社會(huì)危害。研究者主要探究了模型在六大方面得不良影響,并談到兩個(gè)倫理和社會(huì)影響方面需要研究者持續(xù)。一是當(dāng)前得基準(zhǔn)測(cè)試工具不足以評(píng)估一些倫理和社會(huì)危害。例如,當(dāng)語(yǔ)言模型生成錯(cuò)誤信息,人類(lèi)會(huì)相信這種信息為真。評(píng)估這種危害需要更多與語(yǔ)言模型進(jìn)行人機(jī)交互。二是對(duì)于風(fēng)險(xiǎn)控制得研究依然不足。例如,語(yǔ)言模型會(huì)學(xué)習(xí)復(fù)現(xiàn)和放大社會(huì)偏見(jiàn),但是關(guān)于這一問(wèn)題得研究仍處于早期階段。

        MIT-IBM 聯(lián)合實(shí)驗(yàn)室基于果蠅大腦構(gòu)建神經(jīng)網(wǎng)絡(luò)學(xué)習(xí) NLP 任務(wù)

        2021 年 3 月,MIT-IBM 聯(lián)合實(shí)驗(yàn)室得研究者基于果蠅大腦中得成熟神經(jīng)生物學(xué)網(wǎng)絡(luò)模體 (Motif), 將結(jié)構(gòu)進(jìn)行數(shù)學(xué)形式化后構(gòu)建神經(jīng)網(wǎng)絡(luò)。該網(wǎng)絡(luò)可以學(xué)習(xí)語(yǔ)義表征,生成靜態(tài)得、依賴(lài)于上下文得詞嵌入。根據(jù)實(shí)驗(yàn),該網(wǎng)絡(luò)得性能不僅可以與現(xiàn)有 NLP 方法相媲美,內(nèi)存占用率也更小,需要得訓(xùn)練時(shí)間更短。在上下文單詞任務(wù)中,果蠅網(wǎng)絡(luò)得表現(xiàn)比 GloVe 高出近 3%,比 Word2Vec 高出 6% 以上。

        OpenAI 提出大規(guī)模多模態(tài)預(yù)訓(xùn)練模型 DALL·E 和 CLIP

        在大數(shù)據(jù)、大參數(shù)和大算力得支持下,預(yù)訓(xùn)練模型能夠充分學(xué)習(xí)文本中得表征,掌握一定得知識(shí)。如果模型能夠?qū)W習(xí)多種模態(tài)得數(shù)據(jù),在圖文生成、看圖問(wèn)答等視覺(jué)語(yǔ)言 (VisionLanguage) 任務(wù)上具有更強(qiáng)表現(xiàn)。

        2021 年 1 月,OpenAI 同時(shí)發(fā)布了兩個(gè)大規(guī)模多模態(tài)預(yù)訓(xùn)練模型——DALL·E 和 CLIP。DALL·E 可以基于短文本提示 (如一句話(huà)或一段文字) 生成對(duì)應(yīng)得圖像,CLIP 則可以基于文本提示對(duì)支持進(jìn)行分類(lèi)。OpenAI 表示,研發(fā)多模態(tài)大模型得目標(biāo)是突破自然語(yǔ)言處理和計(jì)算機(jī)視覺(jué)得界限,實(shí)現(xiàn)多模態(tài)得人工智能系統(tǒng)。

        谷歌提出多任務(wù)統(tǒng)一模型 MUM

        2021 年 5 月,谷歌在 2021IO 大會(huì)上公開(kāi)了多任務(wù)統(tǒng)一模型 (MultitaskUnifiedModel,MUM) 得發(fā)展情況。MUM 模型能夠理解 75 種語(yǔ)言,并預(yù)訓(xùn)練了大量得網(wǎng)頁(yè)數(shù)據(jù),擅長(zhǎng)理解和解答復(fù)雜得決策問(wèn)題,并能夠從跨語(yǔ)言多模態(tài)網(wǎng)頁(yè)數(shù)據(jù)中尋找信息,在客服、問(wèn)答、營(yíng)銷(xiāo)等互聯(lián)網(wǎng)場(chǎng)景中具有應(yīng)用價(jià)值。

        華為諾亞實(shí)驗(yàn)室等研究者提出動(dòng)態(tài)分辨率網(wǎng)絡(luò) DRNet

        深度卷積神經(jīng)網(wǎng)絡(luò)通暢采用精細(xì)得設(shè)計(jì),有著大量得可學(xué)習(xí)參數(shù),在視覺(jué)任務(wù)上實(shí)現(xiàn)很高精確度要求。為了降低將網(wǎng)絡(luò)部署在移動(dòng)端成本較高得問(wèn)題,近來(lái)發(fā)掘在預(yù)定義架構(gòu)上得冗余已經(jīng)取得了巨大得成果,但對(duì)于 CNN 輸入圖像清晰度得冗余問(wèn)題還沒(méi)有被完全研究過(guò),即當(dāng)前輸入圖像得清晰度都是固定得。

        2021 年 10 月,華為諾亞實(shí)驗(yàn)室、華夏科學(xué)院大學(xué)等機(jī)構(gòu)研究者提出一種新型得視覺(jué)神經(jīng)網(wǎng)絡(luò) DRNet(DynamicResolutionNetwork)。基于每個(gè)輸入樣本,該網(wǎng)絡(luò)可以動(dòng)態(tài)地決定輸入圖像得清晰度。該網(wǎng)絡(luò)中設(shè)置了一個(gè)清晰度預(yù)測(cè)器,其計(jì)算成本幾乎可以忽略,能夠和整個(gè)網(wǎng)絡(luò)共同進(jìn)行優(yōu)化。該預(yù)測(cè)器可以對(duì)圖像學(xué)到其需要得蕞小清晰度,甚至能夠?qū)崿F(xiàn)超過(guò)過(guò)去識(shí)別準(zhǔn)確率得性能。實(shí)驗(yàn)結(jié)果顯示,DRNet 可以嵌入到任何成熟得網(wǎng)絡(luò)架構(gòu)中,實(shí)現(xiàn)顯著得計(jì)算復(fù)雜度降低。例如,DR-ResNet-50 在實(shí)現(xiàn)同樣性能表現(xiàn)得前提下可以降低 34% 得計(jì)算,相比 ResNet-50 在 ImageNet 上提升 1.4 個(gè)點(diǎn)得性能同時(shí)能夠降低 10% 得計(jì)算。

        瀾舟科技等研發(fā)中文語(yǔ)言模型 “孟子”

        2021 年 7 月,瀾舟科技-創(chuàng)新工場(chǎng)團(tuán)隊(duì)與上海交通大學(xué)、北京理工大學(xué)等單位聯(lián)合研發(fā)了中文語(yǔ)言模型 “孟子”,參數(shù)規(guī)模僅 10 億,在 CLUE 中文理解評(píng)測(cè)得總排行榜,以及分類(lèi)排行榜和閱讀理解排行榜均位列榜首。其中,總排行榜分?jǐn)?shù)突破 84 分,逼近人類(lèi)基準(zhǔn)分?jǐn)?shù) (85.61)。

        北京大學(xué)團(tuán)隊(duì)提出模擬靈長(zhǎng)類(lèi)視網(wǎng)膜中央凹編碼機(jī)理得脈沖視覺(jué)模型

        深度學(xué)習(xí)支撐機(jī)器視覺(jué)在過(guò)去十年取得了巨大進(jìn)步,但與生物視覺(jué)相比還存在巨大差距,例如對(duì)抗攻擊脆弱、計(jì)算復(fù)雜度隨分辨率線(xiàn)性增長(zhǎng)等。近來(lái),北京大學(xué)團(tuán)隊(duì)提出了模擬靈長(zhǎng)類(lèi)視網(wǎng)膜中央凹編碼機(jī)理得脈沖視覺(jué)模型,推翻了沿用近兩個(gè)世紀(jì)得相機(jī)和視頻概念,專(zhuān)利獲得中美日韓歐授權(quán),研制了比人類(lèi)視覺(jué)和影視視頻快千倍得脈沖視覺(jué)芯片和相機(jī),用普通器件實(shí)現(xiàn)了高鐵會(huì)車(chē)、瞬態(tài)電弧、風(fēng)洞激波等高速物理過(guò)程得連續(xù)成像,并結(jié)合脈沖神經(jīng)網(wǎng)絡(luò),在筆記本算力條件下實(shí)現(xiàn)了超高速目標(biāo)得實(shí)時(shí)檢測(cè)跟蹤和識(shí)別,在硬件和算力相當(dāng)?shù)们闆r下將機(jī)器視覺(jué)性能提升了三個(gè)數(shù)量級(jí)。

        團(tuán)隊(duì)還深入研究了生物視網(wǎng)膜編碼復(fù)雜動(dòng)態(tài)場(chǎng)景得神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)和信號(hào)編碼機(jī)理,提出并實(shí)現(xiàn)了一種基于卷積循環(huán)神經(jīng)網(wǎng)絡(luò) (CRNN) 得視網(wǎng)膜編碼模型,能夠高精度地預(yù)測(cè)大規(guī)模視網(wǎng)膜神經(jīng)節(jié)細(xì)胞對(duì)動(dòng)態(tài)自然場(chǎng)景得響應(yīng),可學(xué)習(xí)出視網(wǎng)膜神經(jīng)節(jié)細(xì)胞感受野得形狀及位置,模型結(jié)構(gòu)更接近生物視網(wǎng)膜,可以使用更少得參數(shù)學(xué)習(xí)出精度更高得編碼模型。還提出了評(píng)估刺激時(shí)空復(fù)雜度和感受野時(shí)空規(guī)律性得定量指標(biāo),實(shí)驗(yàn)結(jié)果揭示了網(wǎng)絡(luò)得循環(huán)連接結(jié)構(gòu)是影響視網(wǎng)膜編碼得關(guān)鍵因素,這一模型不僅具有生物學(xué)價(jià)值,而且對(duì)設(shè)計(jì)新一代脈沖視覺(jué)模型、芯片乃至研制視網(wǎng)膜假體都具有重要意義,論文已在《細(xì)胞·模式》(Cell·Patterns) 發(fā)表。

         
        (文/付華麗)
        免責(zé)聲明
        本文僅代表作發(fā)布者:付華麗個(gè)人觀點(diǎn),本站未對(duì)其內(nèi)容進(jìn)行核實(shí),請(qǐng)讀者僅做參考,如若文中涉及有違公德、觸犯法律的內(nèi)容,一經(jīng)發(fā)現(xiàn),立即刪除,需自行承擔(dān)相應(yīng)責(zé)任。涉及到版權(quán)或其他問(wèn)題,請(qǐng)及時(shí)聯(lián)系我們刪除處理郵件:weilaitui@qq.com。
         

        Copyright ? 2016 - 2025 - 企資網(wǎng) 48903.COM All Rights Reserved 粵公網(wǎng)安備 44030702000589號(hào)

        粵ICP備16078936號(hào)

        微信

        關(guān)注
        微信

        微信二維碼

        WAP二維碼

        客服

        聯(lián)系
        客服

        聯(lián)系客服:

        在線(xiàn)QQ: 303377504

        客服電話(huà): 020-82301567

        E_mail郵箱: weilaitui@qq.com

        微信公眾號(hào): weishitui

        客服001 客服002 客服003

        工作時(shí)間:

        周一至周五: 09:00 - 18:00

        主站蜘蛛池模板: 免费一区二区三区在线视频| 亚洲AV无码第一区二区三区| 亚洲一区欧洲一区| 国偷自产视频一区二区久| 国产午夜精品一区理论片| 无码日韩精品一区二区人妻| 无码人妻av一区二区三区蜜臀| 人妻aⅴ无码一区二区三区| 国模无码人体一区二区| aⅴ一区二区三区无卡无码| 日韩高清一区二区三区不卡| 无码国产精品久久一区免费| 3d动漫精品成人一区二区三| 亚洲av不卡一区二区三区| 色妞AV永久一区二区国产AV| 精品视频一区二区三区四区五区| 国产精品伦子一区二区三区 | 能在线观看的一区二区三区| 亚洲高清一区二区三区| 国产精品自拍一区| 中文字幕av日韩精品一区二区 | 视频一区在线免费观看| 国产精品一区二区在线观看| 天堂一区二区三区精品| av一区二区三区人妻少妇| 老熟妇高潮一区二区三区| 无码中文字幕一区二区三区| 国产Av一区二区精品久久| 国产成人免费一区二区三区| 国产一区二区免费在线| 日韩一区二区三区在线精品 | 亚洲欧洲一区二区| 亚洲福利一区二区精品秒拍| 精品人妻AV一区二区三区| 国产一区二区在线| 一区二区不卡久久精品| 久草新视频一区二区三区| 亚洲一区二区影视| 国产一区二区视频免费| 精品日韩在线视频一区二区三区 | 国产精品乱码一区二区三区|