Google制定道德規範 承諾不將AI應用於軍事武器
▲Google 與美國國防部的合作雖小,卻引起大規模關注。(圖/資料照,記者洪聖壹攝)
上個月,Google 與美國國防部協議合約公開,但此舉卻引來內部員工反彈,有 4000 多名職員遞交請願書,更有數十名打算辭職以表示抗議,爲了平息內部紛爭,根據《紐約時報》報導,Google 打算制定相關的道德規範,禁止將 AI 技術應用在軍事武器。
今年五月,《GIZMODO》報導,Google 參與美軍的 Maven 計劃,希望藉由機器學習增強無人機的辨識能力,減輕監控人員的負擔。儘管 Google 表示技術只用來標記圖像,不會有任何侵略性的用途,對比其他合作項目,與軍方的合作金額也非常少。解釋卻仍無法平息員工的不滿,爆發 Google 史上最大規模的離職潮。
Google 目前向員工承諾,會制定一套 AI 與軍事武器的道德原則,排除將人工智慧運用在武器上的可能性,細節仍不清楚。《紐約時報》也公開,去年 9 月 Google 高層還在討論,如何公開與國防部的人工智慧合約時,Google 人工智慧首席科學家李飛飛表示,強烈建議避免使用 AI 這個詞,「就算 AI 武器並非最敏感的 AI 話題,卻也是其中之一。這隻會招來媒體們對於 Google 的惡意攻擊。」
儘管 Google 做出承諾,但細節仍讓人有所疑惑,《The Verge》就點出問題關鍵,「Google 該如何劃出底線?」透過機器學習來分析監控畫面,會不會導致 AI 武器化?也許不會,但有沒有可能影響無人機發展的未來趨勢?甚至朝向具有攻擊性質?Google 又該如何判斷?