文章摘要: 該公司不會尋求發展旨在帶來身體傷害的AI應用谷歌制定的原則還要求公司職員及客戶
Alphabet旗下谷歌部門週四稱,該公司將禁止其AI(人工智慧)軟體被用於武器或不合理的監視措施,這意味著該公司開始為其在這個新興業務領域中的業務決策建立標準。這種新的限制措施可能有助於谷歌管理層平息數千名員工在過去幾個月中的抗議活動,他們反對該公司與美國軍方合作識別無人機視訊中的物體。
谷歌CEO桑達爾·皮查伊(Sundar Pichai)週四發表博文稱,該公司將尋求獲得美國政府的其他合同,其中包括與網路安全、新兵招募以及搜救行動有關的合同等。他說道:「我們想要明確一點,那就是雖然我們不會 開發 用於武器的AI技術,但仍將繼續在其他很多領域中與政府和軍方展開合作。」
先進計算機成本和效能方面的突破已令AI技術開始從研究實驗室走向國防和醫療等行業,而在出售AI工具這個新興的業務領域中,谷歌及其他一些大型科技公司已經成爲了佼佼者。這種技術能讓計算機查閱龐大的資料集以作出預測,以快於人類的速度找出模式和反常現象。但AI系統可能促成讓專業軍人也自嘆不如的精準無人機打擊,或是通過大規模收集線上交流資訊的方式來找出異見者,從而引發了學院派倫理學家和谷歌職員的憂慮。
「建立一種明確而貫徹始終的標準來反對自身技術的武器化」將有助於谷歌證明其「捍衛國際客戶和使用者信任的決心」,英國蘭卡斯特大學(Lancaster University)社會學教授露西·薩奇曼(Lucy Suchman)在谷歌週四宣佈上述訊息之前向路透社說道。
谷歌表示,該公司不會尋求發展旨在帶來身體傷害的AI應用,或是與「違背國際認可的人權規範」的監視行為有關的應用,又或是與可能帶來的好處相比「造成損害的風險更大」的應用。
另外,谷歌制定的原則還要求公司職員及客戶「避免給人帶來不公正的影響」,尤其是與種族、性別、性向以及政治或宗教信仰有關的影響。
皮查伊稱,對於違反上述原則的應用,谷歌保留封禁的權利。
一名谷歌高管稱,這些原則和建議是一種「樣板」,AI社羣中的任何人都可馬上在自己的軟體中加以應用。雖然 微軟 和其他一些公司此前也已釋出了AI指導原則,但整個行業一直都在密切關注谷歌的作法,原因是該公司內部職員強烈反對其與美國政府之間的無人機合作。