섹스로봇 보급이 눈앞에, 법 규제로 해결해야 할 과제

 섹스로봇 보급이 눈앞에, 법 규제로 해결해야 할 과제 '로봇과의 섹스는 향후 50년 이내에 일반적으로 될 것'이라고 약 절반의 미국인이 생각하고 있는 것으로 2017년 조사에서 나타났다. 그러나 현실로 다가온 섹스로봇을 법으로 규제하는 것에 대해서는 아직도 해결해야 할 문제가 남아 있음을 미네소타대학의 법학자인 Francis x.Shen가 설명하고 있는 내용이다.  ◆섹스로봇의 정의 일반적으로 인지되고 있는 '섹스로봇'에는 정의가 없다. 이것은 언뜻 보면 큰 문제로 보이지 않을 수도 있지만 사실 법률상 심각한 문제이다. 규제대상에 대한 정의가 있어야 금지나 규제를 할 수 있기 때문이다.  미국의 앨라배마州는 성적인 장난감 판매를 금지하는 유일한 州이지만 법률상의 정의는 그 용도에 초점을 맞춘 '인간의 성기자극을 주된 목적으로 한 디바이스'로 하고 있다.  그러나 미래에 섹스로봇은 성기를 자극하는 것 이상의 목적을 가진 것도 많아질 것이다. 단순한 「성적인 자극」에 그치지 않고, 파트너의 감정을 만족시키는 기계학습 알고리즘을 채용하게 되는 것도 생각할 수 있다.  Mark1이라는 미녀풍의 로봇은 일반적으로 섹스로봇으로 인식되지만 개발자인 Ricky Ma Tsz Hang는 Mark1은 섹스로봇으로 만들어진 것이 아니다라고 분명히 말하고 있다. Mark1은 '아이 점심 준비'부터 '노인 돌보기'와 같은 다양한 작업을 돕기 위해 만들어졌다.  인간은 '성적(性的)인 것'과 '성적(性的)이지 아닌 것'을 양립시킬 수 있지만 로봇이 이와 마찬가지로 스위치 하나로 '아이와 노는 모드', '어른과 노는 모드'로 전환할 수 있게 됐다면 정의는 더욱 복잡해질 것이다.  ◆ 어린이형 섹스로봇 2003년 로렌스 대 텍사스州 사건에서 법원은 처음으로 성적(性的) 프라이버시 권리를 언급했다. 성적 프라이버시 권리가 확대되면서 최종적으로 성적인 장난감 판매를...

Apple이 iPhone 내에 이미지에서 마음대로 아동 포르노를 신고한다고 발표! 미국에서 서비스 개시

Apple이 iPhone 내에 이미지에서 마음대로 아동 포르노를 신고한다고 발표! 미국에서 서비스 개시

개인이 가지고 있는 아이폰에 대해 검사(스켄)가 시작된다.

지난 해 Apple은 미국 내 개인의 아이폰에 기록된 모든 이미지 데이터에 대해 항상 감시하는 시스템을 도입한다고 발표한 적이 있다.

목적은 아동학대 화상(아동 포르노)의 확산을 방지하기 위해서라는 것이다.

시스템은 작년인 2021년 하반기 도입할 예정으로 발표한 바 있으며, 불법 이미지가 감지되면 데이터가 빼내 경찰에 신고하게 된다고 한다.

그리고 시스템에 의한 감시는 화상 뿐만이 아니라, 말로 하는 것도 미친다.

아동 포르노에 관련된 단어를 검색하려고만 해도 Siri나 Search 같은 우리에게 친숙한 소프트웨어들이 경고를 하게 된단다.

물론 새로 도입되는 감시 시스템은 아동보호단체들로부터 환영을 받고 있지만 보안 연구자들은 사생활 감시의 시작이라고 우려하고 있다.

어떤 구조로 불법 이미지를 감지하고 있는 것인지 알아 보자.


◇ 시스템이 다운로드 되면 마음대로 이미지 데이터를 스캔하기 시작한다

2021년 후반부터 Apple이 도입하려고 하고 있는 시스템은 「neural Hash」라고 불리는 검출 앱이다.

"neural Hash"는 아동 포르노로 여겨지는 기존의 20만장의 이미지 패턴을 AI에게 학습시킨 앱으로, 아이폰에 다운로드되면 비슷한 패턴을 가진 영상이 개인의 아이폰 내부에 있는지 스캔하기 시작한다.

그리고 패턴일치율이 높은 이미지 데이터가 발견되면 아이폰에서 데이터를 빼내어 다른 사람의 손에 거쳐 경찰에 신고된다.

즉 Apple은 방대한 양에 이른다고 생각되는 피의자에 대해서, 통보할지 말지의 재량권을 가지게 된다.

또 「neural Hash」는 이미 iPhone에 있는 데이터 뿐만이 아니라, 새롭게 송수신 되는 데이터에 대해서도 감시를 한다.

예를 들어 타인이 자녀에게 보낸 영상을 AI가 아동 포르노라고 판단했을 경우 사진은 흐릿해질 뿐 아니라 자녀에 대해 경고하고 부모님께도 알린다고 메시지가 나타난다.

또 자녀 스스로 성적으로 노골적인 사진을 촬영하거나 다른 사람에게 송신하려고 한 경우에도 같은 조치가 취해진다.

또 감시대상은 화상 뿐만이 아니라 말로도 이어진다고 한다.

어린이나 부모가 '아동 포르노'와 관련된 단어를 검색했을 경우에도 시스템이 반응해 즉각 경고를 하게 되기 때문이다.

이러한 새로운 감시 시스템에 대해 일부 아동 보호 단체는 환영의 뜻을 나타내고 있다.

그러나 보안 전문가들은 큰 우려를 표명하고 있다.

예를 들어 존스홉킨스 대학의 그린 교수는 이런 종류의 도구가 아동 포르노를 찾아내는 데 도움이 된다고 하면서도 AI의 판단의 토대가 되고 있는 '데이터베이스'가 우리 일반 이용자들이 알 수 없다는 점에 문제가 있다고 말했다.

AI에게 타겟을 가르치는 데이터베이스를 의도적으로 조작하는 것으로, 개인의 iPhone에서 꺼내고 싶은 화상을 아동 포르노에서 다른 것으로 간단하게 변경할 수 있을지도 모르기 때문이다.


◇ 스마트폰 속의 정보가 내 것이 아니다

스마트폰이나 그에 연동하는 디바이스는 개인의 재무상황이나 건강상태, 위치정보, 교우관계 등 개인정보의 창고라고 할 수 있다.

현 단계에서는, 새롭게 도입되는 시스템의 감시대상은 「아동 포르노」로 한정되어 있지만, 대상을 변경할 수도 있을지도 모릅다.

예를 들면 저작권을 침해하고 있는 소프트나 입수 루트의 불명한 음악이나 영상 데이터의 검출이라고 하는 대상으로도 확대할 수 있을 것이다.

또한 다른 생활에서도 감시 소프트웨어를 스마트폰에 다운로드하는 것이 일반화될 가능성도 있다.

그렇게 되면 최종적으로는, 많은 개인정보가 무수한 AI에 의해서 감시되는 사태가 될지도 모릅다.

보안 전문가들은 이러한 시스템이 도입되면 '댐이 붕괴'된 것과 같다고 말한다.

물론 아동 포르노 규제 강화는 필요하다.

그러나 그 수단을 어떤 것으로 해야 할지를, 기업이 결정하는 것이 옳은 것인지는 의문이다.


Apple will scan photos stored on iPhones and iCloud for child abuse imagery

https://www.theverge.com/2021/8/5/22611305/apple-scan-photos-iphones-icloud-child-abuse-imagery-neuralmatch


Apple reportedly plans to begin scanning iPhones in the US for child abuse images ( updated )

https://www.engadget.com/apple-scan-iphones-child-abuse-neuralmatch-185009882.html


Apple to scan US iPhones for images of child sex abuse

https://www.scmp.com/news/world/united-states-canada/article/3144020/apple-scan-us-iphones-images-child-sex-abuse?module=perpetual_scroll&pgtype=article&campaign=3144020


이 블로그의 인기 게시물

아침형 인간의 밤샘과 야행성 인간의 일찍 일어나는 것이 생산성 하락으로 연결

전 세계의 핵폭탄이 일제히 터지면 무슨 일이 일어날까?

외계인을 향해 「지구의 정보」를 발송하는 계획이 진행중! ... 고(故) 스티븐 호킹 박사 「그만두는 것이 좋다」고