前言:想要寫出一篇令人眼前一亮的文章嗎?我們特意為您整理了5篇人工智能的倫理思考范文,相信會為您的寫作帶來幫助,發(fā)現(xiàn)更多的寫作思路和靈感。
關(guān)鍵詞:人工智能影視教育課堂在場價值觀
人工智能技術(shù)作為社會媒介化發(fā)展的特殊產(chǎn)物,不僅能夠建構(gòu)起智能媒介化的信息社會,更能深入到傳媒研究領(lǐng)域,引導(dǎo)影視傳媒研究朝著“互聯(lián)網(wǎng)+教育”的方向發(fā)展。當(dāng)前影視傳媒教育正面臨重要的轉(zhuǎn)型階段,如何通過媒介信息技術(shù)調(diào)整現(xiàn)有的理論學(xué)習(xí)模式和教學(xué)培養(yǎng)目標(biāo),已經(jīng)成為影視教育進(jìn)行改革創(chuàng)新的突破口。基于人工智能為教育信息化帶來的機(jī)遇和挑戰(zhàn),影視教育正致力于從“刀切教育”邁向“精準(zhǔn)教育”,從“課堂缺席”轉(zhuǎn)為“課堂在場”,從人才培養(yǎng)模式到教育信息平臺搭建,都在不斷強(qiáng)化智能教育培養(yǎng),力求為影視傳媒教育的智能化改革和實(shí)踐提供決策依據(jù)。
一、影視教育智能化發(fā)展的應(yīng)用價值
智能化影視傳媒研究是教育信息化極為重要的應(yīng)用場景,人工智能技術(shù)不僅拓寬了影視傳媒教育的研究方向,同時也在技術(shù)手段、渠道搭建、傳媒倫理等層面發(fā)揮著重要作用。
1.消除數(shù)據(jù)鴻溝,發(fā)揮智能傳媒教育技術(shù)賦能和知識平權(quán)的雙重功能。影視傳媒研究是以實(shí)踐為基礎(chǔ)的理論性教學(xué),以培養(yǎng)創(chuàng)新型和復(fù)合型人才為教育目標(biāo)。教育學(xué)者是影視文化傳播的驅(qū)動者,因個體間存在傳播技能、信息儲備和交往行為方面的差異,造成影視傳媒教育具有嚴(yán)重的知識鴻溝。在影視研究學(xué)者步入算法教育的重要階段,智能教育平臺可通過讀取人的反饋改變原有的教學(xué)模式,調(diào)整每一位受教育者的天賦類型。與此同時,教育學(xué)者能夠充分利用算法技術(shù)和人工智能手段,獲取定制化的影視資源和學(xué)習(xí)條件,以技術(shù)邏輯引導(dǎo)學(xué)習(xí)流程,用分析框架提高教學(xué)模式的理論性和可操作性,通過強(qiáng)化教與學(xué)的變革場景,激活文化創(chuàng)作的想象力和邏輯性思維,使科技創(chuàng)新在理性與感性、理論與實(shí)踐的引導(dǎo)作用下,從一般的理論教學(xué)形成智能媒介化的信息教學(xué)模式,從單向傳授轉(zhuǎn)變?yōu)殡p向互動的學(xué)習(xí)教育模式。
2.拓寬學(xué)習(xí)渠道,推動教育形態(tài)從理論課堂到智能媒體教育課堂的變革。人工智能技術(shù)與影視教育教學(xué)的深度融合,正引發(fā)起一場新的教學(xué)革命。從教育手段和學(xué)習(xí)途徑上來看,原有的課堂教學(xué)已無法滿足理論和實(shí)踐的雙重需求,大數(shù)據(jù)催生出的智能化影視教育,在虛擬世界和現(xiàn)實(shí)世界間搭建起新的算法課堂,利用人工神經(jīng)網(wǎng)絡(luò)簡化理論教學(xué)的概念,又通過具有超強(qiáng)運(yùn)算能力和通訊能力的技術(shù)手段協(xié)助實(shí)踐操作。例如,人工智能照相機(jī)作為輔助型的教學(xué)工具,被運(yùn)用于智慧課堂的攝影實(shí)踐教學(xué)中,借助云端技術(shù)和物聯(lián)網(wǎng)連接遠(yuǎn)程數(shù)據(jù)中心,可以幫助不懂?dāng)z影技術(shù)的學(xué)習(xí)新手盡快了解電影拍攝的理論框架和基本技能,推動教學(xué)場景從應(yīng)用性教學(xué)到智慧型課堂的氛圍建構(gòu)。人工智能與影視教學(xué)的跨界融合,成為智能傳媒教育進(jìn)行顛覆式創(chuàng)新的重要表現(xiàn)形式,教育形態(tài)正逐漸從智慧課堂過渡到智慧校園,從傳統(tǒng)的理論范式過渡到智慧媒體的應(yīng)用型范式,幫助構(gòu)建起新的學(xué)科話語體系。
3.重視傳媒倫理,推動智能化影視傳媒教育價值觀和技術(shù)性的生成。人工智能是以追求效益為初心的理性工具,在技能研發(fā)階段尚未對倫理規(guī)范提出強(qiáng)制要求,技術(shù)倫理向來是人工智能難以逾越的一道鴻溝;影視傳媒教育則是以培養(yǎng)學(xué)生的倫理觀和價值觀為出發(fā)點(diǎn),重視以道德審美為核心的理性意識。智能化傳媒教育將信息技術(shù)和影視教學(xué)進(jìn)行結(jié)合,使得理性工具得以同理性意識深度融合,人文關(guān)懷建立在技術(shù)作用之上,這既是培養(yǎng)受教育者核心價值觀的時代需要,亦是強(qiáng)化人工智能技術(shù)倫理的有效途徑。人工智能時代,強(qiáng)調(diào)智能化影視傳媒教育技術(shù)性和價值觀的生成,與其說是建立在影視教育應(yīng)用場景上的技術(shù)倫理規(guī)范,不如說是借信息技術(shù)完成對傳媒倫理和受教育者價值觀的理性建構(gòu),讓人工智能發(fā)展緊密聯(lián)系意識形態(tài)和倫理道德問題,加深技術(shù)手段和教育學(xué)習(xí)的彼此作用,從而獲得傳媒教學(xué)在倫理層面的共識。隨著傳媒影響力的逐步擴(kuò)大,以內(nèi)容為載體的影視教學(xué)活動意味著要擔(dān)負(fù)起更重要的教學(xué)責(zé)任,學(xué)科研究核心價值觀的建設(shè)必須以注重傳媒倫理和技術(shù)倫理為教學(xué)基礎(chǔ),重新建構(gòu)現(xiàn)有的倫理道德觀念,為人工智能技術(shù)注入價值觀的活的靈魂。
二、影視教育智能化發(fā)展的風(fēng)險問題
人工智能技術(shù)的迅速發(fā)展,賦予影視傳媒教育極大的應(yīng)用價值,與此同時也面臨著潛在的風(fēng)險問題。
1.灌輸式教育仍占據(jù)主流,智能化影視教學(xué)陷入價值認(rèn)知困境。在人工智能技術(shù)出現(xiàn)以前,理論+實(shí)踐的教學(xué)策略已經(jīng)成為一種固定的形態(tài)存在于傳統(tǒng)影視教學(xué)工作中,受教育者根據(jù)統(tǒng)一的培養(yǎng)目標(biāo)規(guī)劃自己的學(xué)習(xí)方式,包括影視創(chuàng)作及影視理論等相關(guān)課程都按照相同的培養(yǎng)模式進(jìn)行。由于教育主體對人工智能的認(rèn)知存在兩極分化的現(xiàn)象,過往只能夠通灌輸式對學(xué)生進(jìn)行強(qiáng)制教育,智能化影視教學(xué)則是處于小范圍內(nèi)的實(shí)踐和創(chuàng)新。對影視教育而言,理論與實(shí)踐是學(xué)習(xí)的內(nèi)容,繼承與創(chuàng)新才是研究的實(shí)質(zhì)。明確人工智能教育的價值認(rèn)知,從灌輸教育逐步邁向定制化教育,為高校的人才培養(yǎng)提供重要的智力支持,應(yīng)當(dāng)是影視教育智能化轉(zhuǎn)型發(fā)展的著力點(diǎn)。
2.智能教育應(yīng)用場景缺乏思考,其深度和廣度有待進(jìn)一步挖掘。當(dāng)前,智慧課堂、智慧校園的出現(xiàn)奠定了智能傳媒教育的基本雛形,依靠大數(shù)據(jù)、物聯(lián)網(wǎng)等信息技術(shù)支撐的智能傳媒教育,在平臺搭建層面已出現(xiàn)顯著性成果,但對應(yīng)用場景的深度和廣度挖掘還存在明顯問題。影視教育智能化應(yīng)當(dāng)以追求個性化和定制化教育為目標(biāo),崇尚的是終身學(xué)習(xí)的教學(xué)理念,不應(yīng)當(dāng)將人工智能技術(shù)僅局限于傳統(tǒng)的教學(xué)課堂,除了要從“線下”走向“線上”,還需要考慮到以人機(jī)交互為主要形態(tài)的教學(xué)應(yīng)用場景,挖掘人工智能教育更多的應(yīng)用情境和展現(xiàn)方式,從而對影視課堂的理論與實(shí)踐教學(xué)價值提供合理的在場性證明。
3.專業(yè)壁壘依然存在,智能化教學(xué)成果馬太效應(yīng)極為明顯。智能教育世界要求培養(yǎng)更加多元化的應(yīng)用型人才,但人工智能的馬太效應(yīng)逐漸滲透到影視傳媒教育工作中,也會導(dǎo)致教學(xué)成果受到出現(xiàn)嚴(yán)重的失衡現(xiàn)象,難以滿足高校對人才培養(yǎng)的多元化需求。作為藝術(shù)研究的影視教學(xué)活動,其科學(xué)精神和創(chuàng)新實(shí)踐同樣重要。尤其在媒介融合背景下,要想推進(jìn)受教育者從“影視學(xué)者”逐漸過渡到“影視作者”,人工智能不僅需要滿足師生的定制化教學(xué)任務(wù),還應(yīng)當(dāng)破除專業(yè)和行業(yè)的壁壘,對其相關(guān)聯(lián)的學(xué)科和傳媒領(lǐng)域進(jìn)行合作,才能夠改變當(dāng)前智能化影視教育在教學(xué)模式上面臨的不足,不斷為社會輸送更多的應(yīng)用型人才。
三、影視教育智能化發(fā)展的轉(zhuǎn)型實(shí)踐
面對智能傳媒教育的風(fēng)險與挑戰(zhàn),影視專業(yè)更應(yīng)當(dāng)立足于自身的教育發(fā)展特色,從人才培養(yǎng)模式、應(yīng)用場景建設(shè)、教育資源整合等方面,推進(jìn)影視教育智能化發(fā)展的轉(zhuǎn)型實(shí)踐。
1.從“灌輸教育”走向“精準(zhǔn)教育”,創(chuàng)建新的人才培養(yǎng)模式。智能傳媒教育范式的自主性建構(gòu),應(yīng)當(dāng)立足于對傳統(tǒng)教學(xué)效率和人才培養(yǎng)模式的顛覆?;诋?dāng)前影視傳媒智能化發(fā)展在人才培養(yǎng)模式層面的不足,其轉(zhuǎn)型實(shí)踐需要從受教育者的個性化需求出發(fā),在師生、家長和社會的通力合作下,創(chuàng)建新的人才培養(yǎng)模式,利用碎片化學(xué)習(xí)完成系統(tǒng)化的學(xué)習(xí)過程,逐漸從“灌輸式教育”走向“精準(zhǔn)化教育”。例如,人工智能時代對影視學(xué)生的培養(yǎng)更趨向于“以個人為導(dǎo)向的系統(tǒng)化學(xué)習(xí)”,通過前期對受教育者的大數(shù)據(jù)整理,對每一位同學(xué)的邏輯性、想象力、創(chuàng)造性和溝通能力等進(jìn)行分析,從影視理論和影視創(chuàng)作兩大方向出發(fā)對受教育者形成定制化的學(xué)生畫像,并提供針對性的智慧作業(yè),幫助教師采集學(xué)生的學(xué)習(xí)情況,從而實(shí)現(xiàn)規(guī)范化的信息管理??梢灶A(yù)見的是,智能傳媒時代,“互聯(lián)網(wǎng)+教育”學(xué)習(xí)模式的生成,在推動知識平權(quán)化等方面發(fā)揮重要價值,成為影視教育智能化追求的重要轉(zhuǎn)型路徑。
2.從“課堂缺席”走向“課堂在場”,打造新的傳媒教育平臺。人工智能不僅要改變傳統(tǒng)的人才培養(yǎng)模式,同樣也應(yīng)當(dāng)提供更加多元化的學(xué)習(xí)應(yīng)用場景。過去的影視研究多局限于單一的課堂場景,采用課上理論和課下實(shí)踐的方式進(jìn)行授課,完成影視教學(xué)的閉環(huán)。人工智能時代,影視傳媒教育應(yīng)當(dāng)調(diào)整原有的受教育模式,通過搭建合理的人工智能應(yīng)用平臺,可以巧妙地將課堂場景與智能技術(shù)結(jié)合起來,為受教育者提供更加多樣性的教學(xué)應(yīng)用場景,從而實(shí)現(xiàn)成長課堂的“在場共生”。例如,人工智能可以帶動影視制作的推陳出新,通過搭建智慧超媒體系統(tǒng),將電影屏幕從影院搬到校園,自動生成無窮界面。與此同時,影視傳媒的智能化還可以幫助教師自動生成電影梗概,將理論性教學(xué)轉(zhuǎn)變?yōu)榭梢暬蜗?,使電影理論同定制化的影像人物之間建立匹配關(guān)聯(lián),讓教育場景從線下逐步延伸到線上,為影視研究提供重要的云服務(wù)。
3.從“媒教分離”走向“共建合作”,實(shí)現(xiàn)產(chǎn)研學(xué)的自主對接。影視教育智能化發(fā)展的最終目的是為了尋求理論與實(shí)踐的融和,幫助構(gòu)建起傳媒教育和傳媒業(yè)界的良性生態(tài)關(guān)系。傳媒教育智能化也可以全面提高受教育者的學(xué)習(xí)效率和工作效率,通過優(yōu)化教育資源,帶動影視內(nèi)容的高質(zhì)量生產(chǎn)、影視人才的高質(zhì)量創(chuàng)作。因此,從“媒教分離”走向“共建合作”,引導(dǎo)產(chǎn)研學(xué)的自主對接也成為了影視教育智能化轉(zhuǎn)型實(shí)踐的有效探索。未來的影視傳媒發(fā)展,能夠抓取海量資源建構(gòu)獨(dú)立的影像景觀模型,為機(jī)器人參加藝考創(chuàng)造可能性,并且也可以緊抓電影內(nèi)容的智能化生產(chǎn),從前期的電影腳本自動化寫作到后期的虛擬演員個性化定制,系統(tǒng)均可以對劇本創(chuàng)作、電影拍攝等課程進(jìn)行精準(zhǔn)化評估,從中篩選出符合影視公司要求的作品,進(jìn)入后續(xù)的市場化操作。
什么是算法?
算法是指由計算機(jī)執(zhí)行的一系列獨(dú)立的指令和動作。從初始狀態(tài)和初始輸入開始,這些指令描述了完整的計算步驟――通過一系列有限的、確切的指令,產(chǎn)生并輸出答案和數(shù)據(jù),最終止于結(jié)束狀態(tài)。
人工智能的算法是一套利用機(jī)器智能解決問題的復(fù)雜手段。過去,我們給計算機(jī)下達(dá)規(guī)則式的指令來解決問題;現(xiàn)在,我們只要告訴計算機(jī)想解決的問題,它就可以自行選擇算法來解決問題――這便是人工智能帶來的根本性變革。
人工智能最重要的是學(xué)習(xí)能力,即根據(jù)機(jī)器以往的經(jīng)驗(yàn)來不斷優(yōu)化算法。第一次人工智能的浪潮始于上世紀(jì)70年代,當(dāng)時的人工智能算法采用的是符號邏輯推理規(guī)則,以實(shí)現(xiàn)知識表征。由于缺乏自我學(xué)習(xí)能力,那時的人工智能無法解決新領(lǐng)域中出現(xiàn)的問題。第二代人工智能雖然在學(xué)習(xí)和感知能力上表現(xiàn)更佳,但由于當(dāng)時的機(jī)器學(xué)習(xí)模型不具備大量吸收訓(xùn)練數(shù)據(jù)的能力,與人類的水平仍有很大差距。
算法的發(fā)展
大約在10年前,深層與結(jié)構(gòu)化機(jī)器學(xué)習(xí),或稱為深度學(xué)習(xí)的新范式,讓人工智能算法的智能程度越來越高。傳統(tǒng)的機(jī)器學(xué)習(xí)方法讓電腦學(xué)習(xí)的“知識”,要由人來設(shè)計并輸入,因?yàn)樾枰莆沾罅康膶I(yè)知識,導(dǎo)致特征工程成為機(jī)器學(xué)習(xí)的瓶頸。深度學(xué)習(xí)打破了這一瓶頸,通過多層結(jié)構(gòu)算法,機(jī)器對數(shù)據(jù)集的“特征”進(jìn)行篩選和提取,通過反復(fù)訓(xùn)練,最終獲得了提取抽象概念的能力。
隨著神經(jīng)網(wǎng)絡(luò)研究的深入,計算機(jī)視覺和聽覺等讓人工智能技術(shù)再次迎來發(fā)展的拐點(diǎn),計算機(jī)的算法也越來越精進(jìn)。未來,計算機(jī)對自然語言的應(yīng)用還將大幅提高,電腦可以聽懂、讀懂人類平常所用的語言,而不僅僅是機(jī)器指令。這樣,存在于互聯(lián)網(wǎng)和局域網(wǎng)中的海量信息,都可以成為深度學(xué)習(xí)的素材。
關(guān)鍵詞:人工智能;犯罪主體;刑罰
新事物的發(fā)展會對社會原有規(guī)范產(chǎn)生沖擊,因此社會規(guī)范需要不斷調(diào)整來應(yīng)對這些問題。人工智能的出現(xiàn)對傳統(tǒng)社會規(guī)范特別是刑法犯罪主體認(rèn)定、罪名設(shè)置等提出了深刻地挑戰(zhàn)。[1]面對這些刑法應(yīng)該如何應(yīng)對值得我們深入思考。
一、人工智能對刑法傳統(tǒng)制度的沖擊
人工智能大致可分為弱人工智能、強(qiáng)人工智能和超人工智能階段。超人工智能在當(dāng)下來看太過科幻化,我們暫且不在本文中討論。弱人工智能具有超強(qiáng)的運(yùn)算和學(xué)習(xí)能力,但只能在人類設(shè)定的算法程序下實(shí)施著特定動作;而強(qiáng)人工智能除了具備弱人工智能的優(yōu)點(diǎn)外還可能像人類一樣擁有自主意識。
(一)弱人工智能對刑法的影響
1.弱人工智能對犯罪主體認(rèn)定的沖擊。無人駕駛汽車造成的交通案件是人工智能對犯罪主體認(rèn)定提出挑戰(zhàn)的典型代表。無人駕駛技術(shù)參與的交通肇事與一般交通肇事在本質(zhì)上是一樣的,唯一的爭論焦點(diǎn)就在于人工智能可否成為交通事故的責(zé)任者。在現(xiàn)行刑法領(lǐng)域內(nèi),犯罪都是“人”在實(shí)施的,這里的“人”指的是自然人和法人,從目前的刑法條文來看人工智能不是犯罪構(gòu)成要件中的“人”。[2]無人駕駛汽車可以完全由人工智能來操作,那么在“人”退居幕后的情況下交通肇事的行為是由誰實(shí)施的呢?刑法學(xué)上刑事主體的歸責(zé)原則是“無行為無犯罪”,如今人工智能仍只是被視為高科技產(chǎn)品,違反交通法規(guī)并不是它的“本意”。既然其沒有支配行為的意志,將其認(rèn)定為犯罪主體在目前來看是不合適的。
2.弱人工智能對罪名設(shè)置的影響。弱人工智能在現(xiàn)階段仍被視為工具,它在特定程序的控制下“聽命”于人類,這使其很容易被不懷好意之徒利用而成為“得力”的犯罪工具,但是由于人工智能的類人化特點(diǎn)使其與傳統(tǒng)的犯罪工具相比大相徑庭,例如有人利用人工智能進(jìn)行在現(xiàn)階段應(yīng)該如何定罪呢?我們發(fā)現(xiàn)現(xiàn)行刑法并沒有針對這種行為的罪名設(shè)置,根據(jù)罪刑法定原則無法對其定罪。
(二)強(qiáng)人工智能對刑法的影響
1.人工智能對主體責(zé)任判斷的沖擊。強(qiáng)人工智能可能像人類一樣擁有自主意識而被賦予主體資格獨(dú)立承擔(dān)刑事責(zé)任,而刑事責(zé)任的承擔(dān)需要分析積極因素和消極因素兩個方面,積極因素包括罪過(故意、過失)、目的等,消極因素包括責(zé)任阻卻事由等,所以說刑事責(zé)任的判斷是需要分析主體的主觀意識的。而主觀意識往往是不可觀的,在傳統(tǒng)犯罪中我們可以通過客觀行為判斷出主體的主觀意識;而強(qiáng)人工智能體的算法邏輯和人類的思維邏輯可能是完全不同的,也就是說我們無法通過客觀行為來判斷它的主觀意識,那么在這種情況下我們該如何判斷人工智能的主觀意識呢?
2.人工智能對刑罰制度的影響。人工智能從本質(zhì)上來講是由特定程序控制的計算機(jī)。鑒于人工智能心智和形體可分離的特殊性,一旦被賦予刑事主體資格,在人工智能觸犯刑法時要規(guī)制的是控制它行為的特定程序,而不是該程序的外在載體即計算機(jī)。因此我們對人工智能適用刑罰時,重點(diǎn)是如何限制其程序的自由或者剝奪其程序的生命等。簡單的切斷電源、斷開網(wǎng)絡(luò)或者單純地限制人工智能形體的自由,并不能達(dá)到規(guī)制人工智能的目的,因?yàn)槿斯ぶ悄艿某绦蚴怯深A(yù)先輸入的命令語句所決定的,以上措施可使人工智能體暫時無法工作但是其內(nèi)在特定程序并未改變,在接通電源和網(wǎng)絡(luò)或者解除對其自由地限制后很難保證其不會犯同樣的罪行。
二、人工智能時代刑法的制度重構(gòu)
(一)刑法對弱人工智能階段所產(chǎn)生問題的回應(yīng)
1.刑法關(guān)于弱人工智能對犯罪主體認(rèn)定帶來的沖擊的回應(yīng)
以無人駕駛汽車造成的交通肇事案件為例,按照“無行為無犯罪”的傳統(tǒng)刑法規(guī)則原則來看,似乎傳統(tǒng)意義上的肇事者已經(jīng)“難覓蹤跡”了。[3]筆者認(rèn)為,可以從如下方面來應(yīng)對人工智能對犯罪主體認(rèn)定帶來的沖擊:
(1)以交通肇事罪追究無人駕駛汽車使用者的責(zé)任。在無人駕駛汽車的行駛中,雖然無人駕駛汽車主要靠車內(nèi)智能駕駛儀來實(shí)現(xiàn)車輛的行駛,但這并不是說免除了使用者的一切注意義務(wù),特別是車輛在情況復(fù)雜的道路上行駛時,使用者更要盡到注意義務(wù),若是由于使用者未盡到注意義務(wù)造成重大交通事故,則可以交通肇事罪追究無人駕駛汽車使用者的責(zé)任。
(2)以產(chǎn)品犯罪追究無人駕駛汽車生產(chǎn)者和銷售者的責(zé)任。在現(xiàn)階段無人駕駛汽車仍被當(dāng)做產(chǎn)品來看待,那么無人駕駛汽車的生產(chǎn)者和銷售者就要為此承擔(dān)一定程度的產(chǎn)品質(zhì)量保證責(zé)任,如果不是由于現(xiàn)有技術(shù)瓶頸,而是無人駕駛汽車存在質(zhì)量問題導(dǎo)致重大交通事故的發(fā)生,則可以生產(chǎn)銷售偽劣產(chǎn)品罪等產(chǎn)品犯罪來追究生產(chǎn)者和銷售者的責(zé)任。[4]
(3)由社會保險來承擔(dān)責(zé)任。如果說該事故是由于當(dāng)下技術(shù)瓶頸等非人為因素造成的,是社會發(fā)展所帶來的風(fēng)險。[5]那么此時可以選擇由社會保險來承擔(dān)這份責(zé)任。
2.刑法關(guān)于弱人工智能對罪名設(shè)置影響的回應(yīng)。針對可能有人利用人工智能犯罪而法無明文規(guī)定的情況,在罪名設(shè)置方面有增設(shè)新的罪名或者對傳統(tǒng)刑法罪名進(jìn)行修正兩種方案。增設(shè)新的罪名如“濫用人工智能罪”等口袋罪名,在人工智能的外延尚未徹底界定清楚的情況下貿(mào)然增設(shè)口袋罪會顯得過于寬泛而無法準(zhǔn)確定罪量刑。鑒于此筆者認(rèn)為可以對傳統(tǒng)刑法罪名作出針對性修改使其可以囊括該種類型的犯罪行為,這樣就可以達(dá)到制裁此類犯罪維護(hù)社會秩序的目的。
(二)刑法對強(qiáng)人工智能階段所產(chǎn)生問題的回應(yīng)
1.強(qiáng)人工智能階段刑法對人工智能主體責(zé)任判斷的回應(yīng)。上文中我們提到由于人工智能的特殊性我們可能無法通過傳統(tǒng)方式分析出它的主觀意識。[6]對于此筆者認(rèn)為,既然人工智能是由算法程序控制的,我們不妨通過探究算法邏輯并摸索出算法程序的特點(diǎn),進(jìn)而通過分析人工智能的算法程序來判斷它的主觀意識,最終得出其應(yīng)當(dāng)承擔(dān)的刑事責(zé)任。
2.強(qiáng)人工智能階段刑法對人工智能刑罰制度的回應(yīng)。由于人工智能體的特殊性,現(xiàn)行刑罰制度無法對其直接適用,因此我們需要創(chuàng)造出針對人工智能程序的特有刑罰。比如我們可以考慮通過更高級別的命令語句修改或者重新編寫其程序,以此降低或者終止它的學(xué)習(xí)和運(yùn)算能力,這樣就可以達(dá)到規(guī)制人工智能程序的目的。
結(jié)語
人工智能已全面參與到我們的生產(chǎn)生活之中,并對我們的現(xiàn)行社會規(guī)范產(chǎn)生了深刻的影響,刑法作為人類社會穩(wěn)定的重要調(diào)節(jié)器受到了人工智能的多方面挑戰(zhàn)。因此刑法需要做出針對性的改變,盡量減少人工智能對人類社會造成的消極影響并讓其更好的服務(wù)于人類的當(dāng)下與未來。
參考文獻(xiàn)
[1] 王軍:《人工智能的倫理問題:挑戰(zhàn)與應(yīng)對》,載《倫理學(xué)研究》2018年第4期。
[2] 何麗:《基于人工智能視域下的法律主體研究》,載《政法學(xué)刊》2018年第3期。
[3] 譚釗:《淺談無人駕駛汽車的前景和面臨的挑戰(zhàn)》,載《東方法學(xué)》2017年第8期。
[4] 林偉杰:《產(chǎn)品質(zhì)量法釋義》,中國民藝出版社2006年4月版。
[5] 林偉:《關(guān)于預(yù)防人工智能反叛的初步探討》,載《機(jī)器人技術(shù)與應(yīng)用》2017年第4期。
摘要
人工智能時代,網(wǎng)絡(luò)空間安全威脅全面泛化,如何利用人工智能思想和技術(shù)應(yīng)對各類安全威脅,是國內(nèi)外產(chǎn)業(yè)界共同努力的方向。本報告從風(fēng)險演進(jìn)和技術(shù)邏輯的角度,將網(wǎng)絡(luò)空間安全分為網(wǎng)絡(luò)系統(tǒng)安全、網(wǎng)絡(luò)內(nèi)容安全和物理網(wǎng)絡(luò)系統(tǒng)安全三大領(lǐng)域;在此基礎(chǔ)上,本報告借鑒 Gartner 公司的 ASA 自適應(yīng)安全架構(gòu)模型,從預(yù)測、防御、檢測、響應(yīng)四個維度,提出人工智能技術(shù)在網(wǎng)絡(luò)空間安全領(lǐng)域的具體應(yīng)用模式。與此同時,本報告結(jié)合國內(nèi)外企業(yè)最佳實(shí)踐,詳細(xì)闡釋人工智能賦能網(wǎng)絡(luò)空間安全(AI+安全)的最新進(jìn)展。最后,本報告提出,人工智能安全將成為人工智能產(chǎn)業(yè)發(fā)展最大藍(lán)海,人工智能的本體安全決定安全應(yīng)用的發(fā)展進(jìn)程,「人工+「智能將長期主導(dǎo)安全實(shí)踐,人工智能技術(shù)路線豐富將改善安全困境,網(wǎng)絡(luò)空間安全將驅(qū)動人工智能國際合作。
目 錄
第一章 人工智能技術(shù)的發(fā)展沿革
(一) 人工智能技術(shù)的關(guān)鍵階段
(二) 人工智能技術(shù)的驅(qū)動因素
(三) 人工智能技術(shù)的典型代表
(四) 人工智能技術(shù)的廣泛應(yīng)用
第二章 網(wǎng)絡(luò)空間安全的內(nèi)涵與態(tài)勢
(一) 網(wǎng)絡(luò)空間安全的內(nèi)涵
(二) 人工智能時代網(wǎng)絡(luò)空間安全發(fā)展態(tài)勢
1、網(wǎng)絡(luò)空間安全威脅趨向智能2、網(wǎng)絡(luò)空間安全邊界開放擴(kuò)張3、網(wǎng)絡(luò)空間安全人力面臨不足4、網(wǎng)絡(luò)空間安全防御趨向主動
第三章 人工智能在網(wǎng)絡(luò)空間安全領(lǐng)域的應(yīng)用模式
(一) AI+安全的應(yīng)用優(yōu)勢
(二) AI+安全的產(chǎn)業(yè)格局
(三) AI+安全的實(shí)現(xiàn)模式
1、人工智能應(yīng)用于網(wǎng)絡(luò)系統(tǒng)安全2、人工智能應(yīng)用于網(wǎng)絡(luò)內(nèi)容安全3、人工智能應(yīng)用于物理網(wǎng)絡(luò)系統(tǒng)安全
第四章 人工智能在網(wǎng)絡(luò)空間安全領(lǐng)域的應(yīng)用案例
網(wǎng)絡(luò)系統(tǒng)安全篇
(一)病毒及惡意代碼檢測與防御
(二)網(wǎng)絡(luò)入侵檢測與防御
第三章 人工智能在網(wǎng)絡(luò)空間安全領(lǐng)域的應(yīng)用模式
人工智能技術(shù)日趨成熟,人工智能在網(wǎng)絡(luò)空間安全領(lǐng)域的應(yīng)用(簡稱 AI+安全)不僅能夠全面提高網(wǎng)絡(luò)空間各類威脅的響應(yīng)和應(yīng)對速度,而且能夠全面提高風(fēng)險防范的預(yù)見性和準(zhǔn)確性。因此,人工智能技術(shù)已經(jīng)被全面應(yīng)用于網(wǎng)絡(luò)空間安全領(lǐng)域,在應(yīng)對智能時代人類各類安全難題中發(fā)揮著巨大潛力。
(一)AI+安全的應(yīng)用優(yōu)勢
人們應(yīng)對和解決安全威脅,從感知和意識到不安全的狀態(tài)開始,通過經(jīng)驗(yàn)知識加以分析,針對威脅形態(tài)做出決策,選擇最優(yōu)的行動脫離不安全狀態(tài)。類人的人工智能,正是令機(jī)器學(xué)會從認(rèn)識物理世界到自主決策的過程,其內(nèi)在邏輯是通過數(shù)據(jù)輸入理解世界,或通過傳感器感知環(huán)境,然后運(yùn)用模式識別實(shí)現(xiàn)數(shù)據(jù)的分類、聚類、回歸等分析,并據(jù)此做出最優(yōu)的決策推薦。
當(dāng)人工智能運(yùn)用到安全領(lǐng)域,機(jī)器自動化和機(jī)器學(xué)習(xí)技術(shù)能有效且高效地幫助人類預(yù)測、感知和識別安全風(fēng)險,快速檢測定位危險來源,分析安全問題產(chǎn)生的原因和危害方式,綜合智慧大腦的知識庫判斷并選擇最優(yōu)策略,采取緩解措施或抵抗威脅,甚至提供進(jìn)一步緩解和修復(fù)的建議。這個過程不僅將人們從繁重、耗時、復(fù)雜的任務(wù)中解放出來,且面對不斷變化的風(fēng)險環(huán)境、異常的攻擊威脅形態(tài)比人更快、更準(zhǔn)確,綜合分析的靈活性和效率也更高。
因此,人工智能的「思考和行動邏輯與安全防護(hù)的邏輯從本質(zhì)上是自洽的,網(wǎng)絡(luò)空間安全天然是人工智能技術(shù)大顯身手的領(lǐng)域。
(1)基于大數(shù)據(jù)分析的高效威脅識別:大數(shù)據(jù)為機(jī)器學(xué)習(xí)和深度學(xué)習(xí)算法提供源源動能,使人工智能保持良好的自我學(xué)習(xí)能力,升級的安全分析引擎,具有動態(tài)適應(yīng)各種不確定環(huán)境的能力,有助于更好地針對大量模糊、非線性、異構(gòu)數(shù)據(jù)做出因地制宜的聚合、分類、序列化等分析處理,甚至實(shí)現(xiàn)了對行為及動因的分析,大幅提升檢測、識別已知和未知網(wǎng)絡(luò)空間安全威脅的效率,升級精準(zhǔn)度和自動化程度。
(2)基于深度學(xué)習(xí)的精準(zhǔn)關(guān)聯(lián)分析:人工智能的深度學(xué)習(xí)算法在發(fā)掘海量數(shù)據(jù)中的復(fù)雜關(guān)聯(lián)方面表現(xiàn)突出,擅長綜合定量分析相關(guān)安全性,有助于全面感知內(nèi)外部安全威脅。人工智能技術(shù)對各種網(wǎng)絡(luò)安全要素和百千級維度的安全風(fēng)險數(shù)據(jù)進(jìn)行歸并融合、關(guān)聯(lián)分析,再經(jīng)過深度學(xué)習(xí)的綜合理解、評估后對安全威脅的發(fā)展趨勢做出預(yù)測,還能夠自主設(shè)立安全基線達(dá)到精細(xì)度量網(wǎng)絡(luò)安全性的效果,從而構(gòu)建立體、動態(tài)、精準(zhǔn)和自適應(yīng)的網(wǎng)絡(luò)安全威脅態(tài)勢感知體系。
(3)基于自主優(yōu)化的快速應(yīng)急響應(yīng):人工智能展現(xiàn)出強(qiáng)大的學(xué)習(xí)、思考和進(jìn)化能力,能夠從容應(yīng)對未知、變化、激增的攻擊行為,并結(jié)合當(dāng)前威脅情報和現(xiàn)有安全策略形成適應(yīng)性極高的安全智慧,主動快速選擇調(diào)整安全防護(hù)策略,并付諸實(shí)施,最終幫助構(gòu)建全面感知、適應(yīng)協(xié)同、智能防護(hù)、優(yōu)化演進(jìn)的主動安全防御體系。
(4)基于進(jìn)化賦能的良善廣域治理:隨著網(wǎng)絡(luò)空間內(nèi)涵外延的不斷擴(kuò)展,人類面臨的安全威脅無論從數(shù)量、來源、形態(tài)、程度和修復(fù)性上都在超出原本行之有效的分工和應(yīng)對能力,有可能處于失控邊緣,人工智能對人的最高智慧的極限探索,也將拓展網(wǎng)絡(luò)治理的理念和方式,實(shí)現(xiàn)安全治理的突破性創(chuàng)新。人工智能不僅能解決當(dāng)下的安全難題,而通過在安全場景的深化應(yīng)用和檢驗(yàn),發(fā)現(xiàn)人工智能的缺陷和不足,為下一階段的人工智能發(fā)展和應(yīng)用奠定基礎(chǔ),指明方向,推動人工智能技術(shù)的持續(xù)變革及其更廣域的賦能。
(二)AI+安全的產(chǎn)業(yè)格局
人工智能以其獨(dú)特的優(yōu)勢正在各類安全場景中形成多種多樣的解決方案。從可觀察的市場指標(biāo)來看,近幾年來人工智能安全市場迅速成長, 公司在 2018 年的研究表明,在網(wǎng)絡(luò)安全中人工智能應(yīng)用場景增多,同時地域覆蓋范圍擴(kuò)大,將進(jìn)一步擴(kuò)大技術(shù)在安全領(lǐng)域的應(yīng)用,因此人工智能技術(shù)在安全市場內(nèi)將快速發(fā)展,預(yù)計到 2024 年,可用在安全中的人工智能技術(shù)市場規(guī)模將超過 350 億美元,在 2017-2024 年之間年復(fù)合增長率(CAGR)可達(dá) 31%。
MarketsandMarkets 公司在 2018 年 1 月的《安全市場中人工智能》報告則認(rèn)為,2016 年 AI 安全市場規(guī)模就已達(dá) 29.9 億美元、2017 年更是達(dá)到 39.2 億美元,預(yù)測在 2025 年將達(dá)到 348.1 億美元,年復(fù)合增長率為 31.38%。而愛爾蘭的 Research and Markets 公司在 2018 年 4 月份了專門的市場研究報告,認(rèn)為到 2023 年人工智能在安全領(lǐng)域應(yīng)用的市場規(guī)模將達(dá) 182 億美元,年復(fù)合增長率為 34.5%。由于機(jī)器學(xué)習(xí)對付網(wǎng)絡(luò)犯罪較為有效,因此機(jī)器學(xué)習(xí)作為單一技術(shù)將占領(lǐng)最大的一塊市場,到 2023 年其市場規(guī)模預(yù)計可達(dá) 60 億美元。
除了傳統(tǒng)安全公司致力于人工智能安全,大型互聯(lián)網(wǎng)企業(yè)也在積極開展人工智能安全實(shí)踐,如 Google、Facebook、Amazon、騰訊、阿里巴巴等均在圍繞自身業(yè)務(wù)積極布局人工智能安全應(yīng)用。
(三)AI+安全的實(shí)現(xiàn)模式
人工智能是以計算機(jī)科學(xué)為基礎(chǔ)的綜合交叉學(xué)科,涉及技術(shù)領(lǐng)域眾多、應(yīng)用范疇廣泛,其知識、技術(shù)體系實(shí)際與整個科學(xué)體系的演化和發(fā)展密切相關(guān)。因此,如何根據(jù)各類場景安全需求的變化,進(jìn)行 AI 技術(shù)的系統(tǒng)化配置尤為關(guān)鍵。
本報告采用 Gartner 公司 2014 年提出的自適應(yīng)安全架構(gòu)(ASA,Adaptive SecurityArchitecture)來分析安全場景中人工智能技術(shù)的應(yīng)用需求,此架構(gòu)重在持續(xù)監(jiān)控和行為分析,統(tǒng)合安全中預(yù)測、防御、檢測、響應(yīng)四層面,直觀的采用四象限圖來進(jìn)行安全建模。其中「預(yù)測指檢測安全威脅行動的能力;「防御表示現(xiàn)有預(yù)防攻擊的產(chǎn)品和流程;「檢測用以發(fā)現(xiàn)、監(jiān)測、確認(rèn)及遏制攻擊行為的手段;「響應(yīng)用來描述調(diào)查、修復(fù)問題的能力。
本報告將 AI+安全的實(shí)現(xiàn)模式按照階段進(jìn)行分類和總結(jié),識別各領(lǐng)域的外在和潛在的安全需求,采用 ASA 分析應(yīng)用場景的安全需求及技術(shù)要求,結(jié)合算法和模型的多維度分析, 尋找 AI+安全實(shí)現(xiàn)模式與適應(yīng)條件,揭示技術(shù)如何響應(yīng)和滿足安全需求,促進(jìn)業(yè)務(wù)系統(tǒng)實(shí)現(xiàn)持續(xù)的自我進(jìn)化、自我調(diào)整,最終動態(tài)適應(yīng)網(wǎng)絡(luò)空間不斷變化的各類安全威脅。
1、人工智能應(yīng)用于網(wǎng)絡(luò)系統(tǒng)安全
人工智能技術(shù)較早應(yīng)用于網(wǎng)絡(luò)系統(tǒng)安全領(lǐng)域,從機(jī)器學(xué)習(xí)、專家系統(tǒng)以及過程自動化等到如今的深度學(xué)習(xí),越來越多的人工智能技術(shù)被證實(shí)能有效增強(qiáng)網(wǎng)絡(luò)系統(tǒng)安全防御:
機(jī)器學(xué)習(xí) (ML, Machine Learning):在安全中使用機(jī)器學(xué)習(xí)技術(shù)可增強(qiáng)系統(tǒng)的預(yù)測能力,動態(tài)防御攻擊,提升安全事件響應(yīng)能力。專家系統(tǒng)(ES, Expert System):可用于安全事件發(fā)生時為人提供決策輔助或部分自主決策。過程自動化 (AT, Automation ):在安全領(lǐng)域中應(yīng)用較為普遍,代替或協(xié)助人類進(jìn)行檢測或修復(fù),尤其是安全事件的審計、取證,有不可替代的作用。深度學(xué)習(xí)(DL, Deep Learning):在安全領(lǐng)域中應(yīng)用非常廣泛,如探測與防御、威脅情報感知,結(jié)合其他技術(shù)的發(fā)展取得極高的成就。
如圖 3 所示,通過分析人工智能技術(shù)應(yīng)用于網(wǎng)絡(luò)系統(tǒng)安全,在四個層面均可有效提升安全效能:
預(yù)測:基于無監(jiān)督學(xué)習(xí)、可持續(xù)訓(xùn)練的機(jī)器學(xué)習(xí)技術(shù),可以提前研判網(wǎng)絡(luò)威脅,用專家系統(tǒng)、機(jī)器學(xué)習(xí)和過程自動化技術(shù)來進(jìn)行風(fēng)險評估并建立安全基線,可以讓系統(tǒng)固若金湯。
防御:發(fā)現(xiàn)系統(tǒng)潛在風(fēng)險或漏洞后,可采用過程自動化技術(shù)進(jìn)行加固。安全事件發(fā)生時,機(jī)器學(xué)習(xí)還能通過模擬來誘導(dǎo)攻擊者,保護(hù)更有價值的數(shù)字資產(chǎn),避免系統(tǒng)遭受攻擊。
檢測:組合機(jī)器學(xué)習(xí)、專家系統(tǒng)等工具連續(xù)監(jiān)控流量,可以識別攻擊模式,實(shí)現(xiàn)實(shí)時、無人參與的網(wǎng)絡(luò)分析,洞察系統(tǒng)的安全態(tài)勢,動態(tài)靈活調(diào)整系統(tǒng)安全策略,讓系統(tǒng)適應(yīng)不斷變化的安全環(huán)境。
響應(yīng):系統(tǒng)可及時將威脅分析和分類,實(shí)現(xiàn)自動或有人介入響應(yīng),為后續(xù)恢復(fù)正常并審計事件提供幫助和指引。
因此人工智能技術(shù)應(yīng)用于網(wǎng)絡(luò)系統(tǒng)安全,正在改變當(dāng)前安全態(tài)勢,可讓系統(tǒng)彈性應(yīng)對日益細(xì)化的網(wǎng)絡(luò)攻擊。在安全領(lǐng)域使用人工智能技術(shù)也會帶來一些新問題,不僅有人工智能技術(shù)用于網(wǎng)絡(luò)攻擊等伴生問題,還有如隱私保護(hù)等道德倫理問題,因此還需要多種措施保證其合理應(yīng)用??偠灾?,利用機(jī)器的智慧和力量來支持和保障網(wǎng)絡(luò)系統(tǒng)安全行之有效。
2、人工智能應(yīng)用于網(wǎng)絡(luò)內(nèi)容安全
人工智能技術(shù)可被應(yīng)用于網(wǎng)絡(luò)內(nèi)容安全領(lǐng)域,參與網(wǎng)絡(luò)文本內(nèi)容檢測與分類、視頻和圖片內(nèi)容識別、語音內(nèi)容檢測等事務(wù),切實(shí)高效地協(xié)助人類進(jìn)行內(nèi)容分類和管理。面對包括視頻、圖片、文字等實(shí)時海量的信息內(nèi)容,人工方式開展網(wǎng)絡(luò)內(nèi)容治理已經(jīng)捉襟見肘,人工智能技術(shù)在網(wǎng)絡(luò)內(nèi)容治理層面已然不可替代。
在網(wǎng)絡(luò)內(nèi)容安全領(lǐng)域所應(yīng)用的人工智能技術(shù)如下:
自然語言處理(NLP, Natural Language Processing):可用于理解文字、語音等人類創(chuàng)造的內(nèi)容,在內(nèi)容安全領(lǐng)域不可或缺。圖像處理(IP, Image Processing):對圖像進(jìn)行分析,進(jìn)行內(nèi)容的識別和分類,在內(nèi)容安全中常用于不良信息處理。視頻分析技術(shù) (VA, Video Analysis):對目標(biāo)行為的視頻進(jìn)行分析,識別出視頻中活動的目標(biāo)及相應(yīng)的內(nèi)涵,用于不良信息識別。
如圖 4 所示,通過分析人工智能技術(shù)應(yīng)用于網(wǎng)絡(luò)內(nèi)容安全,在四個層面均可有效提升安全效能:
預(yù)防階段:內(nèi)容安全最重要的是合規(guī)性,由于各領(lǐng)域的監(jiān)管法律/政策的側(cè)重點(diǎn)不同而有所區(qū)別且動態(tài)變化。在預(yù)防階段,可使用深度學(xué)習(xí)和自然語言處理進(jìn)行相關(guān)法律法規(guī)條文的理解和解讀,并設(shè)定內(nèi)容安全基線,再由深度學(xué)習(xí)工具進(jìn)行場景預(yù)測和風(fēng)險評估,并及時將結(jié)果向網(wǎng)絡(luò)內(nèi)容管理人員報告。
防御階段:應(yīng)用深度學(xué)習(xí)等工具可完善系統(tǒng),防范潛在安全事件的發(fā)生。
檢測階段:自然語言、圖像、視頻分析等智能工具能快速識別內(nèi)容,動態(tài)比對安全基線,及時將分析結(jié)果交付給人類伙伴進(jìn)行后續(xù)處置,除此之外,基于內(nèi)容分析的情感人工智能也已逐步應(yīng)用于輿情預(yù)警,取得不俗成果。
響應(yīng)階段:在后續(xù)調(diào)查或留存審計資料階段,過程自動化同樣不可或缺。
3、人工智能應(yīng)用于物理網(wǎng)絡(luò)系統(tǒng)安全
隨著物聯(lián)網(wǎng)、工業(yè)互聯(lián)網(wǎng)、5G 等技術(shù)的成熟,網(wǎng)絡(luò)空間發(fā)生深刻變化,人、物、物理空間通過各類系統(tǒng)實(shí)現(xiàn)無縫連接,由于涉及的領(lǐng)域眾多同時接入的設(shè)備數(shù)量巨大,傳感器網(wǎng)絡(luò)所產(chǎn)生的數(shù)據(jù)可能是高頻低密度數(shù)據(jù),人工已經(jīng)難以應(yīng)對,采用人工智能勢在必行。但由于應(yīng)用場景極為復(fù)雜多樣,可供應(yīng)用的人工智能技術(shù)將更加廣泛,并會驅(qū)動人工智能技術(shù)自身新發(fā)展。
情緒識別(ER, Emotion Recognition):不僅可用圖像處理或音頻數(shù)據(jù)獲得人類的情緒狀態(tài),還可以通過文本分析、心率、腦電波等方式感知人類的情緒狀態(tài),在物理網(wǎng)絡(luò)中將應(yīng)用較為普遍,通過識別人類的情緒狀態(tài)從而可與周邊環(huán)境的互動更為安全。AI 建模(DT, Digital Twin/AI Modeling):通過軟件來溝通物理系統(tǒng)與數(shù)字世界。生物特征識別 (BO, Biometrics):可通過獲取和分析人體的生理和行為特征來實(shí)現(xiàn)人類唯一身份的智能和自動鑒別,包括人臉識別、虹膜識別、指紋識別、掌紋識別等技術(shù)。虛擬 (VA, Virtual Agents):這類具有人類行為和思考特征的智能程序,協(xié)助人類識別安全風(fēng)險因素,讓人類在物理網(wǎng)絡(luò)世界中更安全。
AI生長
人工智能新近的發(fā)展似乎顯得太快,超出了人們的預(yù)期和適應(yīng)能力。2014年6月7日,正好是阿蘭?圖靈逝世60周年紀(jì)念日,聊天程序“尤金?古斯特曼”有爭議地通過了圖靈測試。此后宣稱通過圖靈測試的計算機(jī)頻頻出現(xiàn)。人們普遍相信,計算機(jī)模仿人類談話而不被察覺,徹底實(shí)現(xiàn)的一天即使現(xiàn)在還沒有到來,也為時不遠(yuǎn)了。
神經(jīng)元網(wǎng)絡(luò)理論、控制、深度學(xué)習(xí)和大數(shù)據(jù)的進(jìn)步在不同側(cè)面加強(qiáng)了人工智能,使它在一些特定的任務(wù)上打敗了人類。特斯拉的聯(lián)合創(chuàng)始人、CEO馬斯克說,計算機(jī)比人更適合開車,“當(dāng)所有的車都知道自己該怎么開的時候,讓人來操控兩噸重的致命機(jī)械太危險了”。理智上我們不得不贊同他,但情感上似乎難以接受――世界的方向盤是否也和汽車的方向盤一樣,從此交到了計算機(jī)的手里?計算機(jī)冷笑一聲:“當(dāng)然是我們來控制世界,連方向盤都不需要。”
波普(K. R. Popper)的話在耳邊響起――客觀知識的世界,是人類創(chuàng)造的,卻是自主的,也會具有創(chuàng)造性。盡管他是在50年前(確切地說是1967年)說這番話的,此刻我們面對人工智能這一存在,“細(xì)思恐極”。
強(qiáng)人工智能――會自主行動的機(jī)器人,會學(xué)習(xí)、自我改進(jìn)、像生物一樣進(jìn)化的機(jī)器人是迫在眉睫的現(xiàn)實(shí)嗎?對人工智能的擔(dān)心究竟只是精神自虐,還是伴隨著符合事實(shí)與邏輯的預(yù)測?如果是前者,不需要AI恐懼的人可以松一口氣,如果是后者,早早想出應(yīng)對之策才行。
兩種恐懼
分析起來,AI恐懼無非兩種,可以稱為“AI的客觀后果恐懼”和“AI的主觀意圖恐懼”。在兩種恐懼之前還有一種失落,因?yàn)闄C(jī)器比人能干,未來的電腦可能比人還聰明,人之為人的部分榮譽(yù)感被剝奪了。但這種失落很快就能適應(yīng),人們早有經(jīng)驗(yàn)――起重機(jī)比人力氣大,望遠(yuǎn)鏡比人看得遠(yuǎn),計算器比人算得快,飛機(jī)還會飛呢。超越人能力局限的東西很多很多,只要它們被人掌握著,就不僅僅是對人能力的超越,而且是對人能力的延伸,能力再大也不用害怕。電腦真比人聰明了,就算有點(diǎn)失落,只要它們?yōu)槲覀兯?,聽我們安排,總歸好處多多。況且“聰明”定義模糊,解微分方程,下棋,電腦都比人厲害,是不是就比人聰明了呢?也不能簡單地下結(jié)論。
在客觀后果一側(cè),討論的比較多的是就業(yè)問題,擔(dān)心機(jī)器人或者軟件把人的工作崗位一批一批地?fù)屪?。工業(yè)生產(chǎn)不用說,流水線工人是最先被機(jī)器人替代的,無人工廠不是什么科幻,而是既成事實(shí)。之后是服務(wù)業(yè),有餐館嘗試用小型無人機(jī)上菜,也有機(jī)器快遞小哥,各種智能機(jī)器發(fā)明出來之后,大量留給人的服務(wù)崗位就會消失。如果你現(xiàn)在是倉庫管理員,或者坐在高速公路入口發(fā)卡,趕緊準(zhǔn)備下一份工作吧。之后是企業(yè)中層,啟用各種交流軟件和自動工作流程軟件,企業(yè)內(nèi)部上傳下達(dá)的事情少了,啟用商業(yè)智能軟件,輔助決策的參謀崗位也少了。之后是創(chuàng)造性工作,包括媒體工作,做主持人、做研究員、做建筑師,虛擬角色和軟件勝任愉快,連寫文章、作曲、畫畫、導(dǎo)致失業(yè)不是人工智能負(fù)面后果的全部,擔(dān)心還包括健康問題、非對稱戰(zhàn)爭等等。家里有了機(jī)器人服務(wù)員,人們衣來伸手飯來張口,只用當(dāng)一個沙發(fā)土豆就可以了。大量無人飛機(jī)和機(jī)器士兵,改變了戰(zhàn)場的倫理――優(yōu)勢一方?jīng)]有面對活人敵手的心理壓力,打起仗來點(diǎn)點(diǎn)鼠標(biāo),像打游戲;劣勢一方面抵御機(jī)器的進(jìn)攻,連敵人的面都見不著,憤怒的情緒可能導(dǎo)向更多恐怖極端手段,把戰(zhàn)火引向敵方非軍事人員。
這些對人工智能改變社會的推測大體合乎邏輯,但并不帶來太大的困擾。人工智能造成的負(fù)面后果會被它帶來的好處抵消,人們相信積極影響遠(yuǎn)遠(yuǎn)大于消極影響,畢竟危險的、繁重的和乏味的工作由機(jī)器人來承擔(dān)更合適。
在主觀意圖一側(cè),AI恐懼的程度會高出幾個級別。人們擔(dān)心的是機(jī)器產(chǎn)生壓迫人、奴役人、消滅人的意圖和行動。盡管這種擔(dān)心非常嚴(yán)肅,也不見得是杞人憂天,但此刻還不到真正需要恐懼的時候。就像看電影不能代替學(xué)物理一樣,面對AI發(fā)抖也不能代替冷靜的分析。確實(shí)沒有論據(jù)證明,只有生物才能產(chǎn)生意識,因此假設(shè)機(jī)器可能產(chǎn)生意識在科學(xué)上是“合法”的,但反過來,證實(shí)機(jī)器可能產(chǎn)生意識這個假設(shè)的論據(jù),現(xiàn)在也還沒有出現(xiàn)。何必被一種可能性有多大都不知道的想法嚇破膽呢?除非你喜歡這種恐懼感,就像喜歡看鬼片一樣。
以“壞”自保
最近有三個“牛人”聊到這個話題。2016年4月,《三體》作者、科幻作家劉慈欣,百度首席科學(xué)家吳恩達(dá),對話“未來人工智能20年”。梁冬主持對話,扮演對人工智能的發(fā)展憂心忡忡的人。按照“AI的客觀后果恐懼”和“AI的主觀意圖恐懼”分類法梳理三個人的觀點(diǎn),先說主觀意圖一側(cè)。吳恩達(dá)的意見用一句歌詞就概括了,“一千年以后……”,他的意思是機(jī)器表現(xiàn)得像人一樣,成為有意識的物種,還早著呢,究竟會不會也不知道,何必?fù)?dān)心?梁冬說,模仿鳥造飛機(jī)不成功,人類造出飛行機(jī)器其實(shí)用了和生物界不同的方案,因此造出思考機(jī)器也不必了解人腦,對人腦的無知根本不是人工智能的發(fā)展障礙。吳恩達(dá)和劉慈欣都表示同意。三位一致認(rèn)為,如果機(jī)器真成了物種,那也是人類的孩子,一開始會模仿父母(即人類)的行為,如果機(jī)器變成了壞孩子,人類也沒別人可埋怨。劉慈欣說,他特別“相信”人的“壞”,足以防范一個機(jī)器物種傷害人類自己。
人工智能 人工智能技術(shù)綜述 人工智能教育 人工智能論文 人工智能課堂 人工智能技術(shù) 人工智能的發(fā)展?fàn)顩r 人工智能課程 人工智能專業(yè) 人工神經(jīng)網(wǎng)絡(luò) 紀(jì)律教育問題 新時代教育價值觀