人工智能會成為推動人類未來發(fā)展的水和電,當(dāng)它在迅速改變?nèi)祟惿瞽h(huán)境的同時,也在模糊著物理世界和個人的界限,延伸出復(fù)雜的道德倫理問題。
5 月 18 日,一則杭州某中學(xué)引入“智慧課堂行為管理系統(tǒng)”的新聞在微博上引發(fā)大量轉(zhuǎn)發(fā),就技術(shù)的不正當(dāng)應(yīng)用引起了網(wǎng)友討伐。背后具體的技術(shù)應(yīng)用正是人臉識別,一方面是通過實現(xiàn)“刷臉”完成實時考勤...這一場景的技術(shù)應(yīng)用已經(jīng)比較完備了,但在最多三四十的教室里,這樣做是不是大材小用了?
但讓網(wǎng)友們?nèi)浩鸸舻囊稽c是,人工智能被用來統(tǒng)計分析學(xué)生課堂行為,并對異常行為實時反饋。據(jù)校方負(fù)責(zé)人介紹,系統(tǒng)每隔 30 秒會進行一次掃描,針對學(xué)生們閱讀、舉手、書寫、起立、聽講、趴桌子等 6 種行為,再結(jié)合面部表情是高興、傷心,還是憤怒、反感,分析出學(xué)生們在課堂上的狀態(tài)。
為了讓技術(shù)用來促進教學(xué)管理,他們欲借助科技幫助老師分析學(xué)生的行為數(shù)據(jù)來得到課堂質(zhì)量的反饋,以及在后續(xù)的教學(xué)上做出調(diào)整。
校方所要達(dá)成的目標(biāo)也許是好的,但問題是,在教室走廊、學(xué)校公開場所以安全之名安裝攝像頭的監(jiān)控行為還算有其合理之處的話,那在較為封閉的教室里監(jiān)控個人行為,是否存在技術(shù)被濫用的嫌疑?當(dāng)然校方聲稱他們考慮到了個人隱私問題,說系統(tǒng)只是對整個班級的行為管理進行大數(shù)據(jù)分析,但這至少是否要經(jīng)過學(xué)生的同意?(當(dāng)然,最后一個問句在中國學(xué)校管理中基本就是奢望。)
其次,收集面部信息作為教學(xué)質(zhì)量反饋看上去雞肋程度大于實用性。校方稱,現(xiàn)在獲取的數(shù)據(jù)僅為片段性,也沒有形成大數(shù)據(jù)來支撐對學(xué)生行為的判斷。所以可以得出通過上述 6 種行為分析本來就沒有多大意義,因為學(xué)生個體的動作表情很難用正負(fù)面二分法做出判定,比如有很多人的喜怒哀樂很少通過面部表情表現(xiàn),這種大數(shù)據(jù)判斷的誤差以及參考價值有多大可想而知。
校方也回應(yīng)稱,現(xiàn)在也不會將具體的某一個行為作為決定性因素,而人們擔(dān)心的恰恰就是你用 AI 技術(shù)給出整齊劃一的“標(biāo)準(zhǔn)答案”。
那在促進教學(xué)質(zhì)量又不傷害學(xué)生個人隱私的情況下,能不能更好的將人工智能技術(shù)應(yīng)用其中?
當(dāng)然有,有網(wǎng)友說, 如果換成系統(tǒng)能語音識別老師所講的內(nèi)容,然后自動搜索相關(guān)圖片、知識點展現(xiàn)在課堂上作為教師的助教。如果不考慮語音技術(shù)目前的挑戰(zhàn),類似的技術(shù)應(yīng)用思路自然可行。教育領(lǐng)域作為人工智能技術(shù)大有大為的落地場景,近年來,無論是像新東方或者滬江這樣傳統(tǒng)的線上教育公司或者 AI 教育的初創(chuàng)公司都在不斷做出探索,但所有的前提是 AI 技術(shù)發(fā)揮的作用必須是正向的。
人工智能的倫理道德問題不僅僅體現(xiàn)在教育領(lǐng)域,還有人工智能歧視問題,這體現(xiàn)在數(shù)據(jù)選擇和算法上。有科學(xué)家研究,通過使用機器學(xué)習(xí)算法幫助銀行提供接受還是拒絕房貸的建議,但在審查神經(jīng)網(wǎng)絡(luò)決策制定流程的結(jié)果時,發(fā)現(xiàn)黑人申請的批準(zhǔn)率大大低于白人申請的批準(zhǔn)率。這被視為人工智能“黑箱”處理導(dǎo)致的不透明性。
再比如人工智能技術(shù)用于軍事用途。韓國科學(xué)技術(shù)高級研究院 KAIST 由于涉及開發(fā)“殺人機器人”項目遭到 Hinton、周志華等 50 余名全球 AI 專家的聯(lián)合抵制,最后項目叫停;Google 利用AI 技術(shù)幫助美國國防部分析無人機拍攝的視頻遭到 3000 名員工聯(lián)名反對,近期事件發(fā)酵后有多位員工憤然離職;Uber 等采用自動駕駛技術(shù)的汽車公司由于車禍?zhǔn)录?受到媒體和公眾的重點盯防......
還有 AI 技術(shù)應(yīng)用在道德倫理這一步的審查是模糊的。
上周,Google 在其語音助手中加入了 Duplex 人工智能語音技術(shù),它能模仿真人的語氣進行對話,幫助用戶完成電話預(yù)訂美發(fā)沙龍和餐館等操作。隨后谷歌母公司 Alphabet 董事長 John Hennessy 聲稱它已經(jīng)部分通過了圖靈測試,但由于它與人類溝通時并未告知自己機器人的身份,因此人們擔(dān)憂它是否會被用來欺詐他人。
我們要防止人工智能“觸電”人類道德倫理,但在相應(yīng)倫理道德框架和機制建立上還處于黎明前的暗夜里。
國外有諸多大公司相繼已建立了相關(guān)組織來討論 AI 的道德倫理問題。2016 年 9 月,Facebook、Google 以及亞馬遜除了內(nèi)部制定防止技術(shù)濫用的機制之外,它們也成立了聯(lián)合組織,目標(biāo)是尋找應(yīng)對 AI 帶來的安全與隱私威脅的解決方案,OpenAI 也是類似的組織。
我國的《新一代人工智能發(fā)展規(guī)劃》也專門提出人工智能倫理與法律的三步走規(guī)劃,但將倫理與法律要求嵌入到 AI 系統(tǒng)仍是世界性難題。即便如此,逐步制定行業(yè)標(biāo)準(zhǔn)和道德標(biāo)準(zhǔn),了解 AI 存在的風(fēng)險刻不容緩。否則,將 AI 用來“監(jiān)控”學(xué)生個人喜怒哀樂這樣的技術(shù)應(yīng)用會不斷涌現(xiàn)。
原文標(biāo)題:當(dāng)AI用來“窺伺”學(xué)生喜怒哀樂,倫理邊界在哪兒?
文章出處:【微信號:rgznai100,微信公眾號:AI科技大本營】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。