国产一级精品毛片基地,aa片在线观看无码免费,古装a级爱做片视频,日日摸日日碰嗷嗷嗷嗷嗷好看到停不下来,精品一级毛片

歡迎來(lái)到進(jìn)口食品商務(wù)網(wǎng)!

英國監管機構指責蘋(píng)果公司未能舉報兒童色情圖片

2024-07-23 08:36 來(lái)源:得道網(wǎng)

兒童安全專(zhuān)家稱(chēng),蘋(píng)果未能有效監控其平臺,也未能掃描兒童性虐待的圖像和視頻,這引發(fā)了人們對該公司如何應對與人工智能相關(guān)的此類(lèi)材料數量增長(cháng)的擔憂(yōu)。

英國全國防止虐待兒童協(xié)會(huì )(NSPCC)指責蘋(píng)果嚴重低估了其產(chǎn)品中兒童性侵材料(CSAM)的出現頻率。根據NSPCC獲得的警方數據,在一年內,僅在英格蘭和威爾士,兒童侵犯者使用蘋(píng)果的iCloud、iMessage和Facetime存儲和交換CSAM的案件數量就超過(guò)了該公司在其他所有國家報告的案件總數。

根據自由信息請求收集的數據并與《衛報》獨家分享,該兒童慈善機構發(fā)現,蘋(píng)果公司在2022年4月至2023年3月期間在英格蘭和威爾士涉及337起虐待兒童的圖片記錄。根據國家失蹤與受虐兒童中心(NCMEC)的年度報告,2023年,蘋(píng)果在其全球平臺上僅向NCMEC提交了267份疑似CSAM的報告,這與大型科技同行形成鮮明對比,谷歌報告了147萬(wàn)多份,textarea報告了3060多萬(wàn)份。

所有美國科技公司都有義務(wù)向NCMEC報告在其平臺上發(fā)現的所有CSAM案例。這個(gè)總部位于弗吉尼亞州的組織是世界各地虐待兒童報告的信息交換中心,負責查看并將其發(fā)送給相關(guān)的執法機構。iMessage是一種加密的消息服務(wù),這意味著(zhù)蘋(píng)果無(wú)法看到用戶(hù)消息的內容,但textarea的WhatsApp也是如此,該公司在2023年向NCMEC報告了大約140萬(wàn)份疑似CSAM的報告。

閱讀更多

英國防止虐待兒童協(xié)會(huì )(NSPCC)兒童安全在線(xiàn)政策負責人理查德?科拉德(Richard Collard)表示:“在蘋(píng)果服務(wù)上發(fā)生的英國虐待兒童圖片犯罪數量,與他們向當局提交的全球虐待內容報告數量幾乎可以忽略不計,兩者之間存在令人擔憂(yōu)的差異?!薄爱斔锌萍脊径紤撛诎踩矫嫱顿Y,并為英國在線(xiàn)安全法的推出做準備時(shí),蘋(píng)果在解決兒童性虐待問(wèn)題上顯然落后于許多同行?!?/p>

蘋(píng)果公司拒絕對本文發(fā)表評論。相反,該公司要求《衛報》查閱其去年8月發(fā)表的聲明。在聲明中,該公司表示,已決定不繼續為CSAM掃描iCloud照片的計劃,因為它選擇了一條“優(yōu)先考慮用戶(hù)安全和隱私”的道路。

2022年底,蘋(píng)果放棄了推出iCloud照片掃描工具的計劃。蘋(píng)果的這款名為neuralMatch的工具會(huì )在照片上傳到iCloud的在線(xiàn)照片存儲之前對它們進(jìn)行掃描,并通過(guò)被稱(chēng)為散列值的數學(xué)指紋,將它們與已知的虐待兒童圖像數據庫進(jìn)行比較。

閱讀更多

然而,這款軟件遭到了數字權利組織的反對,他們表示擔心,它將不可避免地被用來(lái)?yè)p害所有iCloud用戶(hù)的隱私和安全。兒童安全倡導人士譴責這項功能的取消。

“蘋(píng)果在大多數環(huán)境中根本沒(méi)有大規模檢測到CSAM,”專(zhuān)注于兒童保護的洛杉磯非營(yíng)利組織Heat Initiative的首席執行官莎拉·加德納(Sarah Gardner)說(shuō)?!八麄冿@然少報了,而且沒(méi)有投資于信任和安全團隊來(lái)處理這一問(wèn)題?!?/p>

蘋(píng)果公司6月份宣布將推出人工智能系統Apple intelligence,這引起了兒童安全專(zhuān)家的警覺(jué)。

科拉德說(shuō):“當人工智能生成的兒童虐待材料將兒童置于危險之中,并影響警方保護年輕受害者的能力時(shí),尤其是在蘋(píng)果推遲保護兒童的嵌入式技術(shù)的情況下,推出蘋(píng)果人工智能的競賽令人擔憂(yōu)?!碧O(píng)果公司表示,與OpenAI合作開(kāi)發(fā)的人工智能系統將定制用戶(hù)體驗,自動(dòng)化任務(wù)并增加用戶(hù)隱私。

2023年,NCMEC收到了4700多份人工智能生成的CSAM報告,并表示預計未來(lái)此類(lèi)報告的數量將增加。由于能夠創(chuàng )建CSAM的人工智能模型是在“現實(shí)生活”中虐待兒童的圖像上進(jìn)行訓練的,因此人工智能生成的圖像也與兒童受害有關(guān)。英國《衛報》6月報道稱(chēng),兒童侵犯者正在利用人工智能為他們最喜歡的受害者制作新的圖像,這進(jìn)一步加劇了幸存者或兒童虐待圖像的創(chuàng )傷。

閱讀更多

加德納說(shuō):“該公司正在進(jìn)入一個(gè)我們知道對兒童來(lái)說(shuō)可能非常有害和危險的領(lǐng)域,而沒(méi)有能夠處理它的記錄?!薄疤O(píng)果是一個(gè)黑洞?!?/p>

中國進(jìn)口商網(wǎng)聲明:未經(jīng)許可,不得轉載。