Apple이 iPhone 내에 이미지에서 마음대로 아동 포르노를 신고한다고 발표! 미국에서 서비스 개시
- 공유 링크 만들기
- X
- 이메일
- 기타 앱
Apple이 iPhone 내에 이미지에서 마음대로 아동 포르노를 신고한다고 발표! 미국에서 서비스 개시
개인이 가지고 있는 아이폰에 대해 검사(스켄)가 시작된다.
지난 해 Apple은 미국 내 개인의 아이폰에 기록된 모든 이미지 데이터에 대해 항상 감시하는 시스템을 도입한다고 발표한 적이 있다.
목적은 아동학대 화상(아동 포르노)의 확산을 방지하기 위해서라는 것이다.
시스템은 작년인 2021년 하반기 도입할 예정으로 발표한 바 있으며, 불법 이미지가 감지되면 데이터가 빼내 경찰에 신고하게 된다고 한다.
그리고 시스템에 의한 감시는 화상 뿐만이 아니라, 말로 하는 것도 미친다.
아동 포르노에 관련된 단어를 검색하려고만 해도 Siri나 Search 같은 우리에게 친숙한 소프트웨어들이 경고를 하게 된단다.
물론 새로 도입되는 감시 시스템은 아동보호단체들로부터 환영을 받고 있지만 보안 연구자들은 사생활 감시의 시작이라고 우려하고 있다.
어떤 구조로 불법 이미지를 감지하고 있는 것인지 알아 보자.
◇ 시스템이 다운로드 되면 마음대로 이미지 데이터를 스캔하기 시작한다
2021년 후반부터 Apple이 도입하려고 하고 있는 시스템은 「neural Hash」라고 불리는 검출 앱이다.
"neural Hash"는 아동 포르노로 여겨지는 기존의 20만장의 이미지 패턴을 AI에게 학습시킨 앱으로, 아이폰에 다운로드되면 비슷한 패턴을 가진 영상이 개인의 아이폰 내부에 있는지 스캔하기 시작한다.
그리고 패턴일치율이 높은 이미지 데이터가 발견되면 아이폰에서 데이터를 빼내어 다른 사람의 손에 거쳐 경찰에 신고된다.
즉 Apple은 방대한 양에 이른다고 생각되는 피의자에 대해서, 통보할지 말지의 재량권을 가지게 된다.
또 「neural Hash」는 이미 iPhone에 있는 데이터 뿐만이 아니라, 새롭게 송수신 되는 데이터에 대해서도 감시를 한다.
예를 들어 타인이 자녀에게 보낸 영상을 AI가 아동 포르노라고 판단했을 경우 사진은 흐릿해질 뿐 아니라 자녀에 대해 경고하고 부모님께도 알린다고 메시지가 나타난다.
또 자녀 스스로 성적으로 노골적인 사진을 촬영하거나 다른 사람에게 송신하려고 한 경우에도 같은 조치가 취해진다.
또 감시대상은 화상 뿐만이 아니라 말로도 이어진다고 한다.
어린이나 부모가 '아동 포르노'와 관련된 단어를 검색했을 경우에도 시스템이 반응해 즉각 경고를 하게 되기 때문이다.
이러한 새로운 감시 시스템에 대해 일부 아동 보호 단체는 환영의 뜻을 나타내고 있다.
그러나 보안 전문가들은 큰 우려를 표명하고 있다.
예를 들어 존스홉킨스 대학의 그린 교수는 이런 종류의 도구가 아동 포르노를 찾아내는 데 도움이 된다고 하면서도 AI의 판단의 토대가 되고 있는 '데이터베이스'가 우리 일반 이용자들이 알 수 없다는 점에 문제가 있다고 말했다.
AI에게 타겟을 가르치는 데이터베이스를 의도적으로 조작하는 것으로, 개인의 iPhone에서 꺼내고 싶은 화상을 아동 포르노에서 다른 것으로 간단하게 변경할 수 있을지도 모르기 때문이다.
◇ 스마트폰 속의 정보가 내 것이 아니다
스마트폰이나 그에 연동하는 디바이스는 개인의 재무상황이나 건강상태, 위치정보, 교우관계 등 개인정보의 창고라고 할 수 있다.
현 단계에서는, 새롭게 도입되는 시스템의 감시대상은 「아동 포르노」로 한정되어 있지만, 대상을 변경할 수도 있을지도 모릅다.
예를 들면 저작권을 침해하고 있는 소프트나 입수 루트의 불명한 음악이나 영상 데이터의 검출이라고 하는 대상으로도 확대할 수 있을 것이다.
또한 다른 생활에서도 감시 소프트웨어를 스마트폰에 다운로드하는 것이 일반화될 가능성도 있다.
그렇게 되면 최종적으로는, 많은 개인정보가 무수한 AI에 의해서 감시되는 사태가 될지도 모릅다.
보안 전문가들은 이러한 시스템이 도입되면 '댐이 붕괴'된 것과 같다고 말한다.
물론 아동 포르노 규제 강화는 필요하다.
그러나 그 수단을 어떤 것으로 해야 할지를, 기업이 결정하는 것이 옳은 것인지는 의문이다.
Apple will scan photos stored on iPhones and iCloud for child abuse imagery
https://www.theverge.com/2021/8/5/22611305/apple-scan-photos-iphones-icloud-child-abuse-imagery-neuralmatch
Apple reportedly plans to begin scanning iPhones in the US for child abuse images ( updated )
https://www.engadget.com/apple-scan-iphones-child-abuse-neuralmatch-185009882.html
Apple to scan US iPhones for images of child sex abuse
https://www.scmp.com/news/world/united-states-canada/article/3144020/apple-scan-us-iphones-images-child-sex-abuse?module=perpetual_scroll&pgtype=article&campaign=3144020
- 공유 링크 만들기
- X
- 이메일
- 기타 앱