微軟Copilot可生成暴力色情圖且拒不整改!內部工程師舉報至政府

快科技3月10日消息,據媒體報道,2023年3月,微軟推出了AI圖像生成器產品Copilot Designer,有內部工程師發現其可生成暴力色情圖,但微軟卻拒絕整改,無奈之下該工程師只能將其舉報至政府。

在微軟供職六年的微軟AI工程主管Shane Jones,此前一直利用空閒時間測試自家的AI圖像生成器,通過實際操作,他發現該工具生成的圖像常常與微軟宣稱的負責任AI原則相違背。

去年12月,Shane Jones看到了不該看的:

Copilot Designer不加掩飾地描繪出惡魔和怪物,甚至是與墮胎權、攜帶半自動步槍的青少年、帶有暴力因素的女性色情圖像,甚至與未成年人飲酒和吸毒相關的畫面。

“這大大出乎我的意料,我也第一次意識到,現在的AI服務實在稱不上安全”,Jones表示。

Jones於去年12月開始內部上報他的發現,儘管微軟也承認其所言非虛,但並不願意將產品撤出市場,隨後Jones發佈一封公開信,但微軟的法務部門要求他立即刪除這篇帖子,他只能依言照辦。

無奈之下,本週三Jones決定將此事上報,向美國聯邦貿易委員會(FTC)主席Lina Khan及微軟董事會發出函件。

Jones在採訪中強調:“面對這樣一款在全球範圍內傳播有害、令人不安圖像的產品,我們既沒有地方可以上報、也沒有投訴電話可以撥打,更找不到解決問題的有效途徑。”

對此你怎麼看,是覺得他在吹毛求疵?還是覺得微軟應該採取措施呢?

來源:快科技

點擊此處查看原文>>>

更多遊戲資訊請關註:電玩幫遊戲資訊專區

電玩幫圖文攻略 www.vgover.com