谷歌推出免費AI工具 可快速識別兒童性虐待圖片
近日,谷歌發布一款AI(人工智能)工具,可幫助審核人員優先識別兒童性虐待(CSAM)內容,從而防止這些圖像在網上。谷歌稱,這款AI工具不僅可基于已有的數據庫作資料對比,還能標記新發現的圖片,這意味著正在遭受性虐待的兒童有可能更快被識別出來,并免受進一步虐待。
9月3日,在谷歌工程主管Nikola Todorovic和產品經理Abhi Chaudhuri發布的一篇博文中提到,在一項實驗中,該工具可幫助審核人員在同一時間段內,找到比以往更多的兒童性虐待內容,識別效率提升了700%。
事實上,谷歌從2006年就開始了這項研究。2008年,谷歌開始使用“哈希技術”(又稱散列技術,是指對一串數據進行雜糅,輸出另一段固定長度的數據,作為這段數據的“指紋”)來標記已知的兒童性虐待圖像,以便識別重復圖像。 每個違規圖像都會被分配一個自己的ID,無需人眼查看,計算機即可識別。
2013年,谷歌嘗試將兒童性虐待圖像的加密“指紋”整合到跨行業數據庫中,幫助企業、執法部門和慈善機構更好地在檢測和刪除兒童性虐待圖像方面協作,從而遏制犯罪。
近日谷歌推出的內容安全API則是結合了最前沿的AI技術,可以在現有技術的基礎上大規模提升識別效率。通過深度神經網絡技術在圖像識別上的應用,這款API可以優先呈現更有可能是兒童性虐待場景的圖像。另外,與此前只能與已被標記為兒童性虐待的圖像不同,這款API還可以識別出以前沒有被標記的圖像。
谷歌方面表示,這款API將免費提供給NGO(非營利組織)和行業合作伙伴使用。隱私護衛隊在該API訪問請求頁面看到,申請者需提供姓名、電子郵件、組織名稱、項目描述等信息。
對于谷歌推出的AI工具,互聯網觀察基金會表示歡迎。這是一家致力于兒童性虐待內容在線的大型組織,在十幾個國家運營用戶舉報網絡,并聘請審核團隊專門識別和打擊CSAM內容。
互聯網觀察基金會首席執行官Susie Hargreaves OBE表示,這款AI工具可以幫助專家更大規模地審查材料,將以前未被標記為非法材料的圖像作為目標,從而提高兒童性虐待內容的識別速度,并跟上犯罪者的步伐,使互聯網成為更安全的地方。