科技公司藉 AI 產品讓自己避免泡沫化,而微軟搶走頭香後,還要擔心對手後來居上,拚速度為首要之務,但無論多令人歎為觀止的 AI,都可能出現道德失誤,現在微軟不管了,萬人裁員計畫 AI 道德監督團隊赫然名列其中。
AI 工具會幫助人類做出更佳決策,但如果設計過程沒有考慮道德因素,AI 工具很可能用於惡意目的或誤導。微軟等大企業一直強調負責任的科技,AI 道德與社會團隊主要指導 AI 創新過程符合道德、負責任和可持續成果,但隨著微軟與 OpenAI 因 ChatGPT 與增強式搜尋引擎大出風頭,最近這團隊卻被裁掉,讓人質疑微軟將 AI 工具推向社會時,是否也違背當初的承諾。
外媒報導,微軟保留人工智慧辦公室 (ORA),這部門主要是為 AI 制定規則,但最近被裁道德與社會團隊為確保微軟 AI 原則體現至產品設計,負責確定微軟產品整合 OpenAI 技術的風險程度。
道德和社會團隊不是很大,去年 10 月重組後只剩 7 人,大部分員工都轉到其他團隊。外媒消息來源稱,微軟首席技術長和執行長 Satya Nadella 壓力越來越大,要求盡快將最新 OpenAI 模型及下一代交給客戶。被解雇員工認為,微軟為了對手趕上前交付 AI 產品,導致不太關心長期、對社會負責等方面。
AI 產品潛在的風險,微軟可能不想再聽到負面聲音,因下定決心從 Google 奪走市占率。微軟每從 Google 搶走 1% 市佔,就帶來 20 億美元年收入,這條鈔票鋪成的路上,潛在社會後果或法律警告都可能是絆腳石。
《紐約時報》最近也撰文,已在 AI 版搜尋引擎 Bing 發現太多偏見與錯誤,如談到政治,Bing 表現左傾偏見,整體看,Bing 的答案偏向好鬥、居高臨下、威脅、政治目標、毛骨悚然和說謊,足以大規模傳播錯誤資訊和陰謀論,孤獨者更可能受鼓勵走上自我毀滅的道路,假訊息也非常多。
原因之一就是傳播速度。微軟執行長 Satya Nadella 以瘋狂形容發表聊天機器人的速度,可知現在微軟戰略方針很明確。報導認為,微軟向 169 國超過 100 萬用戶推送 Bing 很魯莽,顯示賺錢已凌駕社會責任之上。
競爭激烈的市場,即使心存善念的公司也不得不向現實低頭。AI 全球諮詢公司 Fractal 資料科學家兼首席顧問 Sray Agarwal 也認為,世界仍處於合乎道德使用 AI 的最初階段,現在離負責任的 AI 還差得很遠。如微軟等領頭羊企業,更應堅持原則而不是利潤,紐時更對微軟喊話:「現在比任何時候都需要負責任的 AI,歷史正在看著你。」
- Microsoft lays off an ethical AI team as it doubles down on OpenAI
- ChatGPT Brings Ethical AI Questions to the Forefront
- History May Wonder Why Microsoft Let Its Principles Go for a Creepy, Clingy Bot
(首圖來源:Image by Freepik)