微軟拚速度推 AI,外媒:道德監督團隊遭解僱

作者 | 發布日期 2023 年 03 月 14 日 11:10 | 分類 AI 人工智慧 , Microsoft , 人力資源 line share Linkedin share follow us in feedly line share
微軟拚速度推 AI,外媒:道德監督團隊遭解僱


科技公司藉 AI 產品讓自己避免泡沫化,而微軟搶走頭香後,還要擔心對手後來居上,拚速度為首要之務,但無論多令人歎為觀止的 AI,都可能出現道德失誤,現在微軟不管了,萬人裁員計畫 AI 道德監督團隊赫然名列其中。

AI 工具會幫助人類做出更佳決策,但如果設計過程沒有考慮道德因素,AI 工具很可能用於惡意目的或誤導。微軟等大企業一直強調負責任的科技,AI 道德與社會團隊主要指導 AI 創新過程符合道德、負責任和可持續成果,但隨著微軟與 OpenAI ChatGPT 與增強式搜尋引擎大出風頭,最近這團隊卻被裁掉,讓人質疑微軟將 AI 工具推向社會時,是否也違背當初的承諾。

外媒報導,微軟保留人工智慧辦公室 (ORA),這部門主要是為 AI 制定規則,但最近被裁道德與社會團隊為確保微軟 AI 原則體現至產品設計,負責確定微軟產品整合 OpenAI 技術的風險程度。

道德和社會團隊不是很大,去年 10 月重組後只剩 7 人,大部分員工都轉到其他團隊。外媒消息來源稱,微軟首席技術長和執行長 Satya Nadella 壓力越來越大,要求盡快將最新 OpenAI 模型及下一代交給客戶。被解雇員工認為,微軟為了對手趕上前交付 AI 產品,導致不太關心長期、對社會負責等方面。

AI 產品潛在的風險,微軟可能不想再聽到負面聲音,因下定決心從 Google 奪走市占率。微軟每從 Google 搶走 1% 市佔,就帶來 20 億美元年收入,這條鈔票鋪成的路上,潛在社會後果或法律警告都可能是絆腳石。

《紐約時報》最近也撰文,已在 AI 版搜尋引擎 Bing 發現太多偏見與錯誤,如談到政治,Bing 表現左傾偏見,整體看,Bing 的答案偏向好鬥、居高臨下、威脅、政治目標、毛骨悚然和說謊,足以大規模傳播錯誤資訊和陰謀論,孤獨者更可能受鼓勵走上自我毀滅的道路,假訊息也非常多。

原因之一就是傳播速度。微軟執行長 Satya Nadella 以瘋狂形容發表聊天機器人的速度,可知現在微軟戰略方針很明確。報導認為,微軟向 169 國超過 100 萬用戶推送 Bing 很魯莽,顯示賺錢已凌駕社會責任之上。

競爭激烈的市場,即使心存善念的公司也不得不向現實低頭。AI 全球諮詢公司 Fractal 資料科學家兼首席顧問 Sray Agarwal 也認為,世界仍處於合乎道德使用 AI 的最初階段,現在離負責任的 AI 還差得很遠。如微軟等領頭羊企業,更應堅持原則而不是利潤,紐時更對微軟喊話:「現在比任何時候都需要負責任的 AI,歷史正在看著你。」

(首圖來源:Image by Freepik)

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》