調查發現,日本日本一些學齡前兒童的兒童兒童裸露照片被發布到了色情網站,還被用作訓練人工智能(AI)的裸照素材。
日本《每日新聞》3月31日報道稱,竟被家保全民影视vip源码這項於去年7月啟動的用於育機隱私調查顯示,至少有135家兒童保育機構在其網站上發布了暴露兒童胸部或下半身隱私部位的訓練突破杀入指标源码照片。其中,上百12家機構發布的發布圖片被發現遭到海外色情網站的轉載,80家機構發布的照片內容被複制並以原始網頁的形式儲存在海外色情網站,即使托兒機構刪除了原始頁面,日本仍然可以被查看到。兒童兒童還有6家機構發布的裸照圖像被用於AI訓練的素材。
據報道,竟被家保8266控车车源码這些照片由託兒所或者幼兒園拍攝和發布,用於育機隱私時間跨度從2000年至2023年,訓練多是安阳社交app源码在兒童游泳、人體彩繪或者體檢時拍攝的。起初拍攝和上傳的動機沒有惡意,但照片一旦在網絡上傳播,源码模板网站搭建就難以控制和刪除。
發起調查的公民團體負責人表示,「這些圖像會令兒童遭受心理傷害和其他意外傷害,應規範相關圖片在互聯網的發布。」
(來源:環球時報)
責任編輯: 木羽