Filter by 카테고리

애플, 아동성학대물(CSAM) 검열 포기로 고소 ㅎㄷㄷㄷㄷ

()

이미지 텍스트 확인

애끗이 아동성학대물(CSAM) 검열올 포기하다는 이유로
고소당햇습니다:
이 기능은 지난 2027년 8월 처음 발표햇없던 기능으로 사
용자들이 iCloud 드라이브에 업로드한 사진들의 해시값올
기존 수사기관에 등록문 데이터와 대조하여 아동성학대물
올 차단할 수 있다는 것이 요지엿습니다:
그러나 애플이 해당 기능을 도입하켓다고 발표한 이후 전
세계적으로 많은 비판이 제기되없습니다: 사용자 데이터지
검열하는 것은 애끗이 항상 내세우던 프라이버시와 보안이
라는 기조에 어곳날 뿐더러 정부 당국에서 정치적 반대 세
력올 잡아내기 위해 비교에 사용되는 해시값올 악용할 수
잇고 또 같은 알고리증올 사용햇올 때 전혀 다른 사진인데
도 대조에 사용하는 해시값이 동일하게 생성월 수 잇는 문
제 등의 지적이 이어젯습니다: 이러한 비판과 지적이 거세
지자 결국 애플은 2022년 해당 기능 개발을 중단햇다고 발
표햇습니다
그리고 지난 토요일 아동성범죄 피해자 및 가족 2680명
이 북부 컬리프니아 법원에 집단 소승올 제기햇습니다: 애
플이 약속햇던 CSAM 검열올 포기하는 바람에 계속해서 사
진이 시중에 유통되어 피해자들이 고통올 받고 있다는 이
유에서입니다: 이들은 피해보상으로 총 12억 달러지 요구
햇습니다:
이 소송에 대해 애플혹은 (비록 원래 계획햇던 CSAM 검열
방식은 아니지만) 프라이버시와 보안을 해치지 안는 선에서
위법한 컨렌츠 공유름 막기 위한 다양한 보호조치들이 시
행중이라고 말햇습니다

검열할께.            – 개인정보 보호안하냐!!!

ㅇㅇ 그럼 안할께 – 아동피해자들 무시하냐!!

= 고소

이 게시물은 얼마나 유용했습니까?

별을 클릭하여 등급을 매깁니다!

평균 평점 / 5. 투표 수:

지금까지 투표가 없습니다! 이 게시물을 평가하는 첫 번째 사람이 되세요.

리플 남기기