伴隨全球數(shù)字化進程的加快,人工智能成為引領(lǐng)未來世界發(fā)展的關(guān)鍵技術(shù)。近年來,各國政府、科研教育機構(gòu)、科技企業(yè)及專家學(xué)者紛紛加入到推動人工智能產(chǎn)業(yè)發(fā)展的過程中,人工智能技術(shù)與產(chǎn)業(yè)融合程度不斷加深。
本期的智能內(nèi)參,我們推薦尚普咨詢的報告《2022年全球人工智能產(chǎn)業(yè)研究報告》,揭秘人工智能的發(fā)展前沿。
來源 尚普咨詢
原標題:
《2022年全球人工智能產(chǎn)業(yè)研究報告》
作者:孫碩 宿碩 劉宇 張�t 周文青
一、人工智能產(chǎn)業(yè)概況
近年來,人工智能技術(shù)得到快速發(fā)展,其對經(jīng)濟社會發(fā)展以及生產(chǎn)生活方式變革將產(chǎn)生重大影響。全球范圍內(nèi)美國、歐盟、英國、日本、中國等國家和地區(qū)均大力支持人工智能產(chǎn)業(yè)發(fā)展,相關(guān)新興應(yīng)用不斷落地。根據(jù)Deloitte報告預(yù)測,全球人工智能產(chǎn)業(yè)規(guī)模從2017年的6,900億美元增長至2025年的64,000億美元,2017-2025年復(fù)合增長率32.10%,呈現(xiàn)較快增長走勢。
▲2017-2025年全球人工智能產(chǎn)業(yè)規(guī)模
投融資方面,全球人工智能投資市場近年來快速發(fā)展,整體融資規(guī)模從2015年的63億美元增長至2021年的668億美元。2021年全球醫(yī)療AI融資規(guī)模較高達到122億美元,金融科技AI融資規(guī)模為39億美元,零售AI融資規(guī)模為37億美元。
▲2015-2021年全球AI融資規(guī)模和融資數(shù)量
▲2015-2021年全球醫(yī)療AI融資規(guī)模和融資數(shù)量
▲2015-2021年全球金融AI融資規(guī)模和融資數(shù)量
▲2015-2021年全球零售AI融資規(guī)模和融資數(shù)量
尚普研究院根據(jù)CB Insights數(shù)據(jù)統(tǒng)計,全球現(xiàn)有人工智能企業(yè)超過11,000家,累計融資總額超過2,500億美元。其中,美國擁有AI相關(guān)企業(yè)達到4,171家,累計融資金額達到1,601.9億美元,在公司數(shù)量和融資規(guī)模上均位居世界首位;中國擁有1,275家AI公司,融資總金額為470.7億美元,位居世界第二位。英國、印度、加拿大等國家也各自擁有百余家AI公司,AI企業(yè)數(shù)量排名前10位的國家占全球總數(shù)的78.3%,累計融資金額則達到全球總額的95%,AI企業(yè)和融資活動集中在美、中、英等國家。
▲全球主要國家AI企業(yè)數(shù)量與累計融資規(guī)模
尚普研究院將處于全球人工智能產(chǎn)業(yè)鏈中的典型上市公司進行整理,名單中以具備綜合實力的科技巨頭為主,國外如Google、Amazon、Microsoft等,國內(nèi)如百度、阿里巴巴、騰訊等。此外,國內(nèi)的商湯、科大訊飛等具有強技術(shù)屬性的AI公司受關(guān)注度較高。
▲全球人工智能產(chǎn)業(yè)鏈主要上市企業(yè)名單
二、AI芯片,廣泛應(yīng)用于云、邊、端各類場景
AI芯片(AI Chip):專門用于處理人工智能相關(guān)的計算任務(wù),其架構(gòu)針對人工智能算法和應(yīng)用進行專門優(yōu)化,具有高效處理大量結(jié)構(gòu)化和非結(jié)構(gòu)化數(shù)據(jù)的特征,可高效支持視覺、語音、自然語言處理等智能處理任務(wù)。當(dāng)前AI芯片類型主要涉及GPU、FPGA、TPU、IPU、DPU、NPU等類別。從應(yīng)用場景來看,AI芯片廣泛應(yīng)用于云端、邊緣端、終端等各類場景,其中云端AI芯片具備高性能特征,終端AI芯片具有低功耗和高能效特性,而邊緣端AI芯片性能介于云端和終端之間。
目前,評價AI芯片性能的指標主要包括:TOPS、TOPS/W、時延、成本、功耗、可擴展性、精度、適用性、吞吐量、熱管理等。其中,TOPS/W是用于度量在1W功耗的情況下,芯片能進行多少萬億次操作的關(guān)鍵指標。近年來,MIT、Nvidia等研發(fā)人員開發(fā)專門的芯片軟件評價工具對于AI芯片的性能做出了系統(tǒng)、全面評價,如Accelergy(評估芯片架構(gòu)級能耗)、Timeloop(評估芯片運算執(zhí)行情況)等。MLPerf是由來自學(xué)術(shù)界、研究實驗室和相關(guān)行業(yè)的AI領(lǐng)導(dǎo)者組成的聯(lián)盟,旨在“構(gòu)建公平和有用的基準測試”,可用于衡量深度學(xué)習(xí)軟件框架、AI芯片和云平臺性能。
CPU作為通用處理器,包含控制單元(指令讀取及指令譯碼)、存儲單元(CPU片內(nèi)緩存和寄存器)及運算單元(ALU約占20%CPU空間)三個主要模塊,但受制于成本/功耗/技術(shù)難度/算力瓶頸等問題,目前仍未出現(xiàn)適配AI高算力要求的主流CPU產(chǎn)品。GPU是一種由大量核心組成的大規(guī)模并行計算架構(gòu),擁有較多運算單元(ALU)和較少緩存(cache),是一款專為同時處理多重任務(wù)而設(shè)計的芯片,具備良 好的矩陣計算能力和并行計算優(yōu)勢,能滿足深度學(xué)習(xí)等AI算法的處理需求,成為主流云端AI芯片。
英偉達A100芯片為多個SM單元(Streaming Multiprocessors,流式多處理器)構(gòu)成的并發(fā)多核處理器,不同SM單元共享L2 Cache存儲資源進行數(shù)據(jù)訪存,A100的安培架構(gòu)中有128個SM核,SM結(jié)構(gòu)是芯片架構(gòu)升級的核心。Tensor Core是英偉達GPU架構(gòu)中專為深度學(xué)習(xí)矩陣運算設(shè)置的張量計算單元,是英偉達GPU系列深度學(xué)習(xí)運算加速的核心。Tensor Core處理的是大型矩陣運算,其執(zhí)行一種專門的矩陣數(shù)學(xué)運算,適用于深度學(xué)習(xí)和某些類型的高性能計算。Tensor Core功能是執(zhí)行融合乘法和加法的運算,其中兩個4*4 FP16矩陣相乘,然后將結(jié)果添加到4*4 FP32或FP64矩陣中,最終輸出新的4*4 FP32或FP64矩陣。
AIoT通過融合AI和IoT技術(shù)實現(xiàn)萬物智聯(lián),其主要涉及到安防、移動互聯(lián)網(wǎng)等多樣化場景。在智慧安防方面,由于終端攝像頭每天產(chǎn)生大量的視頻數(shù)據(jù),若全部回傳到云數(shù)據(jù)中心將會對網(wǎng)絡(luò)帶寬和數(shù)據(jù)中心資源造成極大占用。通過在終端加裝AI芯片,可實現(xiàn)數(shù)據(jù)本地化實時處理,即僅將經(jīng)過結(jié)構(gòu)化處理、關(guān)鍵信息提取后帶有關(guān)鍵信息的數(shù)據(jù)回傳云端,大大降低網(wǎng)絡(luò)傳輸帶寬壓力。當(dāng)前主流解決方案為前端攝像頭設(shè)備內(nèi)集成AI芯片,在邊緣端采用智能
服務(wù)器級產(chǎn)品,后端在邊緣服務(wù)器中集成智能推理芯片。目前國內(nèi)外企業(yè)正在加大對邊緣端AI視覺處理芯片的研發(fā)和投入,相關(guān)芯片產(chǎn)品如英偉達Jetson AGX Xavier、地平線旭日3、華為海思Hi3559A V100等。
隨著智能駕駛等級的提高,技術(shù)不斷迭代促使車用AI芯片性能逐步增強。SAE(國際自動機工程師學(xué)會)將自動駕駛劃分為六個級別:L0(非自動化)、L1(駕駛員輔助)、L2(部分自動化,如交通擁堵輔助和高級緊急制動+轉(zhuǎn)向)、L3(有條件自動化,如高速道路自動駕駛)、L4(高度自動化,如城市自動駕駛)和L5(完全自動化,如全場景自動駕駛)。從L3開始每一級別均需要強大的算力進行實時分析,處理大量數(shù)據(jù),執(zhí)行復(fù)雜的邏輯運算,對計算能力有著極高要求。每一級別自動駕駛汽車所需的芯片計算能力一般認為是:L3約為250TOPS,L4超過500TOPS,L5超過1,000TOPS。隨著芯片設(shè)計和制造工藝的提高,車用AI芯片正朝著高算力、低功耗的方向發(fā)展。
▲全球主要車用AI芯片概覽
預(yù)計到2025年,全球車用AI芯片市場規(guī)模將突破17億美元。隨著汽車控制方式逐漸由機械式轉(zhuǎn)向電子式,每輛汽車對車用AI芯片需求提升,帶動車用AI芯片長期發(fā)展。根據(jù)Yole預(yù)測,2025年全球車用AI芯片產(chǎn)量將達到67.19億顆,市場規(guī)模將達到17.76億美元,年復(fù)合增速分別達到99.28%和59.27%。此外,車用AI芯片逐漸往高能效方向發(fā)展,如英特爾2022年推出的EyeQ Ultra自動駕駛汽車芯片,基于經(jīng)過驗證的Mobileye EyeQ架構(gòu)而打造,其含有8個PMA、16個VMP、24個MPC、2個CNN Accelerator視覺處理單元(VPU),通過優(yōu)化算力和效能以達到176TOPS,可滿足L4自動駕駛場景,該產(chǎn)品將于2023年底供貨,預(yù)計在2025年全面實現(xiàn)車規(guī)級量產(chǎn)。
▲2021-2025年全球車用AI芯片產(chǎn)量
▲2021-2025年全球車用AI芯片市場規(guī)模
AI芯片在圖像識別、語音識別和快速建立用戶畫像等方面具有重要作用。根據(jù)Yole預(yù)測,2026年全球消費電子AI芯片市場規(guī)模將達到55.8億美元,其中筆記本電腦、平板電腦和智能手機AI芯片滲透率將分別達到100%、100%和91%,未來全球消費電子AI芯片市場規(guī)模和滲透率呈現(xiàn)逐步增長態(tài)勢。
▲2021-2026年全球消費電子AI芯片市場規(guī)模及滲透率
三、人工智能趨勢展望
1、前沿技術(shù)
Transformer模型:由Google的Ashish Vaswani等人和多倫多大學(xué)的Aidan N.Gomez于2017年首次提出,是一種基于自注意力機制(在Transformer模型中起基礎(chǔ)作用,可減少對外部信息的依賴,更擅長捕捉數(shù)據(jù)或特征的內(nèi)部關(guān)系,優(yōu)化模型訓(xùn)練結(jié)果)的深度學(xué)習(xí)模型,該模型主要由
編碼器和
解碼器構(gòu)成,模型本身并行度較高,在精度和性能上均要優(yōu)于傳統(tǒng)的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)和卷積神經(jīng)網(wǎng)絡(luò)(CNN)。Transformer模型在簡單語言問答和語言建模任務(wù)上有著較好表現(xiàn)。Transformer模型仍存在一些不足,如對局部信息的獲取能力弱于RNN和CNN、不能很好表征單詞的位置信息、頂層梯度消失等問題。
▲Transformer模型
BERT模型:由Google于2018年提出,是基于Transformer Encoder構(gòu)建的一種模型。模型基本思想:給定上下文來預(yù)測下一個詞。BERT模型架構(gòu)是由多接口組成的Transformer編碼器層,即全連接神經(jīng)網(wǎng)絡(luò)增加自注意力機制。對于序列中的每個輸入標記,每個接口計算鍵、值和查詢向量,相關(guān)向量用于創(chuàng)建加權(quán)表示,合并同一層中所有接口輸出并通過全連接層運行。每個層使用跳躍連接進行包裝,之后將層歸一化處理。BERT模型傳統(tǒng)工作流主要包含預(yù)訓(xùn)練和模型微調(diào)兩部分,其中預(yù)訓(xùn)練環(huán)節(jié)涉及MLM和NSP兩個半監(jiān)督任務(wù);模型微調(diào)環(huán)節(jié)包含一個或更多全連接層,通常增加到最終編碼器層的頂部。BERT模型已集成在谷歌搜索中,并提升10%的查詢準確率。
▲BERT模型(Bidirectional Encoder Representation from Transformer)
ViT模型(Vision Transformer):由Google公司Alexey Dosovitskiy等人在2021年提出,其原理是將原本用于NLP領(lǐng)域的基于自注意力機制的Transformer模型應(yīng)用于計算機視覺領(lǐng)域。相比于傳統(tǒng)CNN算法,ViT模型在大數(shù)據(jù)集上識別率更高、成本更低。ViT模型的基本原理:1)將圖片切分為相同大小的塊,每個塊可以看做一個“單詞”;2)每個塊經(jīng)過線性投射層(全連接層)的操作得到位置編碼(圖像分類問題轉(zhuǎn)化為NLP問題);3)將線性投射后的圖像塊輸入由L層Transformer模型構(gòu)成的編碼器;4)輸出結(jié)果經(jīng)過多層感知機(MLP)得到最終分類結(jié)果。目前,ViT已發(fā)展出多種改進模型,在計算機視覺物體檢測等方面具有很大應(yīng)用潛力。
▲ViT模型(Vision Transformer)
自監(jiān)督學(xué)習(xí)(Self-supervised Learning):旨在對于無標簽數(shù)據(jù),通過設(shè)計輔助任務(wù)來挖掘數(shù)據(jù)自身的表征特性作為監(jiān)督信息,來提升模型的特征提取能力,將無監(jiān)督問題轉(zhuǎn)化為有監(jiān)督問題的方法。輔助任務(wù)是自監(jiān)督學(xué)習(xí)最關(guān)鍵內(nèi)容,目前主要包括自然語言處理NLP和計算機視覺CV兩大類任務(wù)。其中,自然語言處理包括單詞預(yù)測、句子序列預(yù)測、詞序列預(yù)測;計算機視覺包括圖像任務(wù)、視頻任務(wù)等。著名AI科學(xué)家Yann Lecun曾經(jīng)提出,如果將人工智能比作一塊蛋糕,蛋糕的大部分是自監(jiān)督學(xué)習(xí),蛋糕上的糖衣是監(jiān)督學(xué)習(xí),蛋糕上的櫻桃是強化學(xué)習(xí),自監(jiān)督學(xué)習(xí)在人工智能領(lǐng)域占據(jù)重要地位。
▲自監(jiān)督學(xué)習(xí)(Self-supervised Learning)
類腦計算(Brain-Inspired Computing):又稱神經(jīng)形態(tài)計算,是借鑒生物神經(jīng)系統(tǒng)信息處理模式和結(jié)構(gòu)的計算理論、體系結(jié)構(gòu)、芯片設(shè)計以及應(yīng)用模型與算法的總稱。類腦計算可模擬人類大腦信息處理方式,以極低的功耗對信息進行異步、并行、高速和分布式處理,并具備自主感知、識別和學(xué)習(xí)等多種能力,是實現(xiàn)通用人工智能的途徑之一。2020年10月,清華大學(xué)張悠慧等人在Nature雜志發(fā)表論文,首次提出“類腦計算完備性”,填補類腦研究完備性理論與相應(yīng)系統(tǒng)層次結(jié)構(gòu)方面的空白。類腦計算技術(shù)的發(fā)展將推動圖像識別、語音識別、自然語言處理等前沿技術(shù)的突破,有望推動新一輪技術(shù)革命。
▲類腦計算(Brain-Inspired Computing)
AI大模型(Foundation Models):是指經(jīng)過大規(guī)模數(shù)據(jù)訓(xùn)練且在經(jīng)微調(diào)后即可適應(yīng)廣泛下游任務(wù)的模型。隨著參數(shù)規(guī)模不斷擴大,AI大模型在語言、視覺、推理、人機交互等領(lǐng)域涌現(xiàn)出新能力。由于各類AI大模型可有效應(yīng)用于多種任務(wù),各類AI大模型同質(zhì)化特征愈發(fā)明顯。伴隨2017年Transformer模型的提出,深度學(xué)習(xí)模型參數(shù)數(shù)量突破1億個。此后,模型參數(shù)數(shù)量迅速增長,其中BAGUALU模型于2021年7月發(fā)布,參數(shù)規(guī)模已達到174萬億個。模型參數(shù)規(guī)模的增大,有助于進一步提高模型的運算精度。AI大模型的應(yīng)用向多個應(yīng)用場景提供預(yù)訓(xùn)練方案,其使用的自監(jiān)督學(xué)習(xí)方法也可減少標注數(shù)據(jù)的使用,降低訓(xùn)練研發(fā)成本。具體而言,AI大模型在醫(yī)療和生物醫(yī)藥、法律和教育等領(lǐng)域擁有廣闊應(yīng)用前景。
▲AI大模型(Foundation Models)
2、產(chǎn)業(yè)融合
元宇宙(Metaverse):本質(zhì)上是對現(xiàn)實世界的虛擬化、數(shù)字化過程,其主要包括基礎(chǔ)設(shè)施、人機交互、空間計算等七層架構(gòu),其中計算機視覺、AI芯片和嵌入式AI等人工智能技術(shù)及基礎(chǔ)設(shè)施共同助力元宇宙加速落地。元宇宙涵蓋芯片、云計算、技術(shù)平臺、通信、智能設(shè)備、內(nèi)容服務(wù)等龐大生態(tài)系統(tǒng)。當(dāng)前全球科技企業(yè)紛紛投入到元宇宙建設(shè)熱潮中,如Nvidia、Meta、Microsoft等科技巨頭及國內(nèi)企業(yè)推出元宇宙解決方案,應(yīng)用于辦公、娛樂、設(shè)計等領(lǐng)域。
▲元宇宙七層經(jīng)典架構(gòu)(The Seven Layers of the Metaverse)
人工智能與生命科學(xué):AlphaFold是由谷歌旗下DeepMind團隊基于深度學(xué)習(xí)算法的蛋白質(zhì)結(jié)構(gòu)預(yù)測的人工智能系統(tǒng),其被視作人工智能深入到生物領(lǐng)域的一大突破。目前AlphaFold已對98.5%的人類蛋白質(zhì)結(jié)構(gòu)做出預(yù)測,此外還對于大腸桿菌、果蠅、斑馬魚、小鼠等研究時常用生物的蛋白質(zhì)結(jié)構(gòu)進行預(yù)測。DeepMind與歐洲生物信息研究所(EMBL-EBI)聯(lián)合發(fā)布由AlphaFold預(yù)測的蛋白質(zhì)結(jié)構(gòu)數(shù)據(jù)庫―AlphaFold Protein Structure Database,該數(shù)據(jù)庫已包含約35萬個蛋白質(zhì)結(jié)構(gòu)。
人工智能與新冠疫情:Eva是用于檢測入境旅客新冠病毒的強化學(xué)習(xí)系統(tǒng),其由美國南加州大學(xué)、美國賓夕法尼亞大學(xué)、AgentRisk以及希臘相關(guān)專家合作開發(fā)。2020年,Eva系統(tǒng)被部署到希臘所有入境口岸(機場、港口、車站等),用于識別限制新冠無癥狀旅客入境。借助Eva系統(tǒng),希臘每天對抵達或途經(jīng)該國大約41,000戶家庭中約17%人員進行檢測。通過比較,Eva發(fā)現(xiàn)感染的旅行者比原先嚴格按照其國籍檢測的方式多1.25-1.45倍。與隨機檢測相比,Eva在旅游旺季發(fā)現(xiàn)感染的旅行者是前者的4倍,非旅游旺季的結(jié)果是隨機檢測的1.85倍,取得良好檢測效果。
人工智能與半導(dǎo)體:功耗、性能和面積(PPA)是芯片設(shè)計中的三個重要優(yōu)化指標。為使PPA優(yōu)化結(jié)果更佳,同時為應(yīng)對芯片安全性需求提升、設(shè)計規(guī)模攀升及工藝節(jié)點微縮等趨勢,EDA廠商開始利用AI技術(shù)解決半導(dǎo)體芯片設(shè)計問題。在EDA中,數(shù)據(jù)快速提取模型、布局和布線、電路仿真模型、PPA優(yōu)化決策等環(huán)節(jié)均有AI技術(shù)參與。AI應(yīng)用于EDA主要有兩種形式:1)應(yīng)用于EDA工具以優(yōu)化單一芯片設(shè)計環(huán)節(jié),如Google、西門子EDA;2)應(yīng)用于整體芯片設(shè)計流程優(yōu)化,如Cadence、Synopsys。此外,華大九天、臺積電等公司亦將AI納入芯片生產(chǎn)各個環(huán)節(jié)。將AI與芯片設(shè)計工作結(jié)合,不僅有助于釋放人力成本、提升工作效率,還將進一步弱化人在其中的作用,甚至可能改變EDA產(chǎn)業(yè)格局。
▲EDA企業(yè)AI技術(shù)應(yīng)用案例
人工智能與碳中和:自2015年第21屆聯(lián)合國氣候變化大會后,碳中和已成為全球共識。當(dāng)前,碳中和已獲得全球超過40個國家和地區(qū)承諾,其中大部分國家宣布將于2050年左右實現(xiàn)碳中和目標。從整體來看,人工智能將從預(yù)測、監(jiān)測、優(yōu)化三大環(huán)節(jié)助力碳中和,如預(yù)測未來碳排放量、實時監(jiān)測碳足跡、優(yōu)化工作流程等。根據(jù)BCG數(shù)據(jù),到2030年人工智能的應(yīng)用有望減少26-53億噸二氧化碳排放量,占全球減排總量5-10%。從行業(yè)來看,人工智能在不同領(lǐng)域及不同環(huán)節(jié)發(fā)揮重要作用,其主要在城市、制造、汽車、電力四大領(lǐng)域助力“碳中和”。
人工智能與冬奧會:2022年2月,第24屆冬季奧林匹克運動會成功在北京舉辦。人工智能技術(shù)在冬奧會開幕式、比賽項目、運動員訓(xùn)練等多個場景實現(xiàn)應(yīng)用,助力科技冬奧目標實現(xiàn)。Intel打造的3DAT技術(shù),一方面可以幫助教練員提出科學(xué)訓(xùn)練計劃,有效提升運動員訓(xùn)練效率,同時還可以在開幕式中實現(xiàn)與演員互動效果;商湯科技為冬奧會冰壺比賽打造的“冰壺運動軌跡捕捉”技術(shù),實現(xiàn)對冰壺檢測追蹤和軌跡捕捉。未來,人工智能與體育賽事、體育運動的融合程度將逐步加深。
3、熱點問題
人工智能產(chǎn)業(yè)發(fā)展的路徑探究:結(jié)合人工智能產(chǎn)業(yè)特點,梳理出“創(chuàng)新投入―科研成果―商業(yè)化落地”的發(fā)展路徑。其中,創(chuàng)新投入主要涉及人才投入、資本投入和要素投入;科研成果涵蓋論文、開源軟硬件和專利;商業(yè)化落地包含AI產(chǎn)品、AI解決方案和AI平臺。當(dāng)前人工智能產(chǎn)業(yè)從投入端到科研成果端發(fā)展較快,人工智能在學(xué)術(shù)研究領(lǐng)域不斷取得突破。但另一方面,人工智能從技術(shù)成果到商業(yè)化落地環(huán)節(jié)仍面臨諸多挑戰(zhàn),如算法訓(xùn)練的通用性不強、泛化能力不強、商業(yè)化成本較高、相關(guān)產(chǎn)業(yè)及企業(yè)對于人工智能技術(shù)接受程度不高等問題,需要不斷從政策機制、技術(shù)發(fā)展以及管理層觀念等方面不斷完善,才能最終推動人工智能在商業(yè)化方面實現(xiàn)快速發(fā)展。
倫理與安全:隨著人工智能技術(shù)的高速發(fā)展與普及應(yīng)用,由其產(chǎn)生的倫理與安全問題日益受到關(guān)注。人工智能不但延續(xù)信息技術(shù)的倫理問題,又因深度學(xué)習(xí)算法具有不透明、難解釋、自適應(yīng)、運用廣泛等特征而在基本人權(quán)、社會秩序、國家安全等方面產(chǎn)生新問題。人工智能典型倫理問題包括:威脅公民生命安全、算法歧視、威脅隱私權(quán)、影響公民知情權(quán)和監(jiān)督權(quán)、虛假信息泛濫、破壞市場競爭環(huán)境、引起權(quán)力結(jié)構(gòu)變化、影響勞動者權(quán)益、AI武器威脅世界和平等問題。目前,全球人工智能治理尚處于初期探索階段,各國正加大人工智能領(lǐng)域的治理力度,出臺人工智能倫理相關(guān)制度,以預(yù)防AI在應(yīng)用過程中產(chǎn)生的風(fēng)險。未來,全球人工智能治理將由準則向操作指南、行業(yè)標準等層面逐步深入,加快構(gòu)建人工智能國際治理體系。
就業(yè):人工智能將通過改變勞動分工與人力資本價值結(jié)構(gòu)深刻影響就業(yè)市場。AI與勞動力就業(yè)關(guān)系包含三個方面:1)當(dāng)AI成本低于勞動力工資水平、且產(chǎn)品附加值又不足以彌補用工成本時,AI應(yīng)用將直接替代相應(yīng)勞動崗位;2)AI應(yīng)用填補勞動者無法勝任的崗位,既可降低錯誤率,提高產(chǎn)品質(zhì)量,也可保護人身安全和健康;3)AI應(yīng)用催生新工作崗位,AI帶來生產(chǎn)生活方式的變革與社會效率的提高,全社會產(chǎn)能實現(xiàn)躍升,進一步產(chǎn)生新工作崗位。世界經(jīng)濟論壇發(fā)布的《2020未來就業(yè)報告》預(yù)計,到2025年,機器可能會取代8,500萬個工作崗位,在AI推動下經(jīng)濟增長會產(chǎn)生9,700萬個新崗位。隨著AI技術(shù)發(fā)展,工作崗位、員工技能和任務(wù)類型將重塑,就業(yè)替代呈現(xiàn)行業(yè)性特征,總體就業(yè)崗位數(shù)量仍將上升。
國家間技術(shù)限制:當(dāng)前,開源深度學(xué)習(xí)框架、開源工具集、開源應(yīng)用軟件快速發(fā)展,國際間AI技術(shù)交流不斷深入,但部分國家和政府間組織為保持自身AI技術(shù)優(yōu)勢,限制AI技術(shù)交流。如美國在2021年6月發(fā)布《創(chuàng)新與競爭法案》,在AI、無人機、芯片等多個領(lǐng)域限制與中國合作;美國商務(wù)部于2019年10月和2020年5月將商湯科技、科大訊飛等多家中國AI公司加入其實體清單,實施投資限制;2022年白宮修訂“關(guān)鍵和新興技術(shù)(CET)清單”,對AI技術(shù)具體分類并實行技術(shù)封鎖。歐盟則于2021年9月通過最新出口管制法規(guī),內(nèi)容涵蓋人臉識別等AI技術(shù)。上述相關(guān)政策與未來人工智能發(fā)展趨勢背道而馳,不利于各國開展技術(shù)合作。
智東西認為,人工智能在60多年的發(fā)展過程中經(jīng)歷了幾度起落。近年來,移動互聯(lián)網(wǎng)高速發(fā)展帶來的海量數(shù)據(jù)、深度學(xué)習(xí)算法的持續(xù)發(fā)展等共同推動人工智能技術(shù)在多個領(lǐng)域取得突破,與之前技術(shù)革命中的蒸汽機、電力等新技術(shù)相比,人工智能對經(jīng)濟社會的影響將更具顛覆性,成為新一輪科技革命和產(chǎn)業(yè)變革的重要驅(qū)動力量。