人工智能教育中不可忽視倫理教育
http://m.mattsalter.com2019年06月17日 10:07教育裝備網(wǎng)
主持人:本報(bào)記者 黃蔚
對(duì)話專家:北京航空航天大學(xué)計(jì)算機(jī)學(xué)院教授 熊璋 副教授 王靜遠(yuǎn)
對(duì)話背景:人工智能教育中的倫理教育有兩個(gè)側(cè)面:一個(gè)是人工智能系統(tǒng)設(shè)計(jì)目標(biāo)、技術(shù)路線、功能實(shí)現(xiàn)的倫理,價(jià)值取向是推動(dòng)科技進(jìn)步、促進(jìn)社會(huì)發(fā)展、改善人民生活,一定不能違背社會(huì)大眾福祉;另一個(gè)是使用人工智能系統(tǒng)時(shí)的倫理,簡(jiǎn)單說就是揚(yáng)善避惡,做造福人類的事,而不能利用人工智能技術(shù)做危害社會(huì)、危害他人的行徑。記者日前就人工智能和倫理教育的話題與北京航空航天大學(xué)計(jì)算機(jī)學(xué)院的熊璋、王靜遠(yuǎn)兩位教授進(jìn)行了對(duì)話。
要保證健康的人工智能教育,必須關(guān)注其中的倫理教育
主持人:使用機(jī)器代替人類的腦力勞動(dòng),是人類自計(jì)算機(jī)發(fā)明伊始就有的一個(gè)夢(mèng)想。經(jīng)過了幾十年的努力,人工智能技術(shù)經(jīng)歷了幾起幾落,日漸成熟,已經(jīng)開始輔助或代替人類一些腦力勞動(dòng),在一些具有確定目標(biāo)的任務(wù)當(dāng)中(如圍棋、人臉識(shí)別等)人工智能甚至能夠超越人類,表現(xiàn)出了更加優(yōu)秀的性能。在人工智能教育中,我們要關(guān)注其中的科學(xué)道理、發(fā)展規(guī)律、對(duì)社會(huì)發(fā)展的影響,那人工智能教育中的倫理教育,我們應(yīng)當(dāng)放在什么樣的位置呢?
熊璋:鐮刀斧頭、蒸汽機(jī)、電力、電話延伸和增強(qiáng)了人類四肢和五官,只有人工智能,是第一次延伸和增強(qiáng)了人類的腦力。人工智能技術(shù)相較于之前所有科技進(jìn)步的最大不同之處,就是它能夠?qū)⑷祟悘牟糠帜X力勞動(dòng)中解放出來。隨著人工智能技術(shù)的不斷成熟和廣泛應(yīng)用,未來會(huì)有越來越多的判斷和決策交由人工智能去完成,如身份確認(rèn)、評(píng)判作業(yè)、閱讀病案、篩選簡(jiǎn)歷、投資決策等,這就意味著人工智能將深度參與人類社會(huì)的許多重要活動(dòng)。
我們不得不承認(rèn),人類在做判斷和決策時(shí),其依據(jù)一定包括社會(huì)公認(rèn)準(zhǔn)則和決策人的情感、態(tài)度、價(jià)值觀,社會(huì)對(duì)人類決策者存在許多倫理道德規(guī)范和約束。在機(jī)器參與人類的判斷和決策,扮演人工智能的角色時(shí),讓系統(tǒng)依據(jù)一套客觀指標(biāo)去判斷是容易的,讓系統(tǒng)從事決策性事務(wù)時(shí),能夠服從社會(huì)公認(rèn)的準(zhǔn)則和人類的價(jià)值觀則是人工智能的一大挑戰(zhàn)。
王靜遠(yuǎn):例如,一款合理的人工智能簡(jiǎn)歷篩選軟件,不應(yīng)該因?yàn)樾詣e、種族、膚色等因素作歧視性的簡(jiǎn)歷甄別;一款用于智能醫(yī)療的軟件,不能夠?yàn)榱双@取不當(dāng)利益而夸大或掩蓋病情,甚至貽誤治療。公平、公正、無歧視、無欺騙等這些用來要求人類決策者行為的倫理與道德標(biāo)準(zhǔn),也都需要在人工智能的自動(dòng)決策當(dāng)中切實(shí)體現(xiàn)。教育工作的一項(xiàng)重要任務(wù)就是幫助人們樹立善良、正直、公平、公正等正確的價(jià)值道德標(biāo)準(zhǔn),F(xiàn)在的人工智能技術(shù)水平,我們還不可能對(duì)人工智能程序進(jìn)行道德教育,但是在我們開展人工智能教育時(shí),絕不能忽視人工智能教育中的倫理教育。
人工智能教育中的幾個(gè)基本倫理教育要點(diǎn)
主持人:教育開發(fā)者在設(shè)計(jì)和開發(fā)人工智能工具時(shí)要充分考慮社會(huì)倫理的基本要求,除了要符合信息技術(shù)不危害倫理的基本原則,例如不制造計(jì)算機(jī)病毒、不開發(fā)基于人工智能的有害程序、不進(jìn)行數(shù)據(jù)盜竊等,還有其他方面的考慮嗎?
熊璋:我們還要充分考慮人工智能在社會(huì)活動(dòng)中所扮演的新角色,考慮到這些角色的不當(dāng)行為可能帶來的倫理風(fēng)險(xiǎn),不主動(dòng)利用角色的特殊地位為個(gè)人牟利或是危害他人利益。
例如,當(dāng)開發(fā)人員為一個(gè)公司開發(fā)人力資源管理系統(tǒng),在使用傳統(tǒng)數(shù)據(jù)庫(kù)、信息系統(tǒng)等技術(shù)時(shí),道德規(guī)范的開發(fā)人員需要做到的是不能利用自己的技術(shù)優(yōu)勢(shì)在程序中預(yù)留后門、不能竄改和拷貝公司的內(nèi)部數(shù)據(jù)、在程序設(shè)計(jì)時(shí)充分考慮信息安全因素等。在開發(fā)一個(gè)基于人工智能的人力資源管理系統(tǒng)時(shí),開發(fā)人員則還需要考慮機(jī)器代替人去作惡的倫理道德風(fēng)險(xiǎn)。例如應(yīng)該主動(dòng)避免將種族、膚色、性別等因素作為特征輸入到自動(dòng)決策算法當(dāng)中,不開發(fā)對(duì)員工個(gè)人隱私具有窺探性的算法功能等。
進(jìn)一步,人工智能倫理教育還要教使用者學(xué)會(huì)在合理的場(chǎng)景正確使用技術(shù)。技術(shù)通常是中性的,善惡只體現(xiàn)在技術(shù)的使用場(chǎng)景當(dāng)中。例如基于人工智能的視頻“換臉”技術(shù),其發(fā)明的初衷是為了用于電影特效、藝術(shù)創(chuàng)作等,但也可能會(huì)被應(yīng)用在不良宣傳、偽造證據(jù)等不當(dāng)場(chǎng)景當(dāng)中。
此外,還要避免人工智能被動(dòng)倫理風(fēng)險(xiǎn),這是指在人工智能擔(dān)負(fù)重要工作職能時(shí),可能會(huì)遭到環(huán)境變化、外來攻擊等不確定因素的干擾,如果在重要崗位上所使用的人工智能技術(shù)不夠可靠和穩(wěn)健,在遭到外界攻擊時(shí)就有可能產(chǎn)生一些不可預(yù)料的后果。如自動(dòng)駕駛過程中,特殊的光照等場(chǎng)景可能導(dǎo)致算法對(duì)于明顯的障礙物視而不見,對(duì)于“刷臉”支付應(yīng)用中的圖像識(shí)別算法,一些對(duì)抗樣本可以完全混淆人工智能模型的輸出,將賬戶開放給不應(yīng)被授權(quán)的訪客。這些都是關(guān)鍵崗位上人工智能可靠性不足所帶來的風(fēng)險(xiǎn)問題。
王靜遠(yuǎn):要教育學(xué)生將來在使用一項(xiàng)人工智能技術(shù)代替人類工作時(shí),主動(dòng)了解技術(shù)的局限性、不確定性及風(fēng)險(xiǎn)后果。
對(duì)于整個(gè)社會(huì)而言,無論是人工智能技術(shù)的開發(fā)者還是使用者,都需要進(jìn)行必要的責(zé)任意識(shí)教育。人工智能工具的重要特性是輔助和代理人類去完成一定的腦力勞動(dòng)。在機(jī)器代理人類去完成一定任務(wù)時(shí),“代理風(fēng)險(xiǎn)”就會(huì)不可避免地產(chǎn)生。
例如,在傳統(tǒng)戰(zhàn)爭(zhēng)中,武器操作者需要親臨戰(zhàn)場(chǎng)進(jìn)行廝殺,因此對(duì)于殺戮的殘酷性會(huì)有直觀的認(rèn)識(shí)。到了無人武器時(shí)代,武器操作者只需要在辦公室里點(diǎn)擊按鈕就能夠殺敵于千里之外,戰(zhàn)爭(zhēng)殘酷性對(duì)操作者就降低到了電子游戲的水平。
而到了人工智能時(shí)代,武器殺人有可能完全由算法來決定,人的生死就完全控制在了算法手中。在這個(gè)過程中如果再出現(xiàn)由于人工智能不可靠所帶來的意外影響,所造成的后果甚至?xí)o整個(gè)人類帶來的巨大災(zāi)難。要想避免這樣的悲劇發(fā)生,必要的技術(shù)管控手段固然必不可少,加強(qiáng)對(duì)于人工智能工具研發(fā)與使用者的責(zé)任意識(shí)教育也同樣非常重要。
管理部門在促進(jìn)人工智能教育健康發(fā)展上的作為
主持人:人工智能是一個(gè)發(fā)展的科學(xué)、發(fā)展的技術(shù),在它的發(fā)展過程中,除了對(duì)科學(xué)技術(shù)的推動(dòng),對(duì)社會(huì)發(fā)展的促進(jìn),人工智能與教育的融合還催生了伴隨式評(píng)價(jià)、個(gè)性化指導(dǎo)、團(tuán)隊(duì)式作業(yè),創(chuàng)新了教學(xué)環(huán)境、氛圍和文化,會(huì)出現(xiàn)新的改變和新的沖擊,我們的學(xué)校和管理部門應(yīng)當(dāng)有何作為呢?
熊璋:人工智能教育中的倫理教育有一個(gè)不斷發(fā)展、不斷完善的過程,維護(hù)這個(gè)過程的科學(xué)性、維護(hù)人工智能教育的健康發(fā)展任重道遠(yuǎn)。人工智能教育應(yīng)該納入義務(wù)教育、普通高中和大學(xué)的課程體系,保證學(xué)校作為人工智能教育的主渠道。教育管理部門要在普通高中和義務(wù)教育階段的課程方案中明確人工智能課程是信息技術(shù)課程、信息科學(xué)課程的重要組成部分,明確培養(yǎng)目標(biāo)、課程內(nèi)容和學(xué)業(yè)質(zhì)量標(biāo)準(zhǔn),并不斷適時(shí)更新,要嚴(yán)格保證學(xué)校用教材的科學(xué)性、嚴(yán)謹(jǐn)性和規(guī)范性,要及時(shí)培訓(xùn)學(xué)校的一線教師,讓他們成為主力軍。同時(shí)也要引導(dǎo)社會(huì)輿論和社會(huì)力量共同維護(hù)人工智能教育的健康發(fā)展。
責(zé)任編輯:董曉娟
本文鏈接:TOP↑