영국 정부의 살인 예측 알고리즘 개발 중인 현황, 영화 '마이너리티 리포트'의 현실화?!
1. 예측 치안, '마이너리티 리포트', 그리고 영국
1.1 예측 치안의 정의
예측 치안(Predictive Policing)은 데이터 분석과 알고리즘을 활용하여 범죄가 발생하기 전에 잠재적인 범죄 활동(개인, 장소, 시간 등)을 식별하는 개념이다.
이는 범죄 예방, 제한된 경찰 자원의 효율적 배분, 심각한 폭력과 같은 복잡한 문제 해결에 대한 잠재력을 제시하며 법 집행 기관에게 매력적인 접근 방식으로 여겨진다.
예측 치안은 크게 특정 장소에서의 범죄 발생 가능성을 예측하는 '핫스팟 매핑'과 특정 개인의 미래 범죄 위험을 평가하는 '개인 위험 평가'로 나눌 수 있다.
1.2 '마이너리티 리포트'의 망령
스티븐 스필버그 감독의 2002년 영화 '마이너리티 리포트'(원작 필립 K. 딕 단편 소설)는 예측 치안 논의에서 자주 소환되는 문화적 기준점이다.
영화는 '프리크라임(Precrime)'이라는 특수 경찰 조직이 예지 능력을 가진 '프리콕(precog)'을 이용해 살인이 일어나기 전에 범죄자를 체포하는 미래 사회를 그린다.
이 시스템은 살인을 거의 근절한 것으로 묘사되지만, 자유 의지의 문제, 예지 능력 오류 가능성(마이너리티 리포트), 예지 능력자 착취, 적법 절차 부재 등 심각한 윤리적 딜레마를 제기한다.
'마이너리티 리포트'는 예측 기술이 가져올 수 있는 디스토피아적 미래에 대한 강력한 경고로 작용하며, 현실의 예측 치안 기술 개발에 대한 우려를 증폭시키는 역할을 한다.
1.3 예측 기술에 대한 영국 정부의 접근
핵심 초점은 살인 또는 심각한 폭력 범죄의 위험을 예측하려는 영국 정부의 최근 시도들이다.
특히 법무부(Ministry of Justice, MoJ)의 '위험 평가 개선을 위한 데이터 공유(Sharing Data to Improve Risk Assessment)' 프로젝트(이전 명칭 '살인 예측 프로젝트')와 내무부(Home Office)가 자금을 지원하고 웨스트 미들랜즈 경찰(West Midlands Police, WMP)이 주도한 '국가 데이터 분석 솔루션(National Data Analytics Solution, NDAS)' 이니셔티브가 주목 대상이다.
이러한 움직임은 영국 내 심각한 폭력 범죄 증가에 대한 우려와 이를 해결하기 위한 정부 전략의 광범위한 맥락 속에서 이해될 필요가 있다.
2. 영국 정부의 심각한 폭력 예측 이니셔티브
영국 정부 내 여러 부처에서 심각한 폭력 범죄를 예측하거나 관련 위험을 평가하기 위한 데이터 기반 접근법을 모색해왔다.
특히 법무부와 내무부 주도의 프로젝트들이 주목받았으나, 그 명칭과 구체적인 목표는 시간이 지남에 따라 변화하는 양상을 보였다.
2.1 법무부(MoJ) : "살인 예측"에서 "위험 평가 개선을 위한 데이터 공유"로
프로젝트의 시작과 명칭 변경 : 이 프로젝트는 초기에 "살인 예측 프로젝트(Homicide Prediction Project)"라는 명칭으로 알려졌으나, 이후 "위험 평가 개선을 위한 데이터 공유(Sharing Data to Improve Risk Assessment)"로 공식 명칭이 변경되었다.
이러한 명칭 변경은 '예측'이라는 단어가 내포하는 민감성과 논란을 의식한 조치로 해석될 수 있다.
명시적인 '범죄 예측'보다는 '위험 평가'나 '이해 증진'과 같은 용어를 사용함으로써, 프로젝트에 대한 대중적 거부감을 줄이고 윤리적 비판을 완화하려는 의도가 엿보인다.
이는 정부가 데이터 기반 접근법의 잠재적 이점을 유지하면서도, '마이너리티 리포트' 식의 디스토피아적 이미지와 거리를 두려는 전략적 움직임으로 볼 수 있다.
공식적인 목적 : 법무부는 이 프로젝트의 목적이 기존 데이터를 활용하여 "보호관찰 대상자가 심각한 폭력 범죄를 저지를 위험을 더 잘 이해하고", 새로운 데이터 소스를 추가하는 것이 기존 위험 평가를 향상시킬 수 있는지 알아보는 연구에 있다고 강조한다.
또한, 이 프로젝트 결과는 법정 증거로 사용되지 않으며, 연구 및 정책 개발 목적으로만 사용될 것이라고 명시적으로 밝히고 있다.
데이터 소스 및 논란
공식 출처 : 법무부는 프로젝트가 교정본부(HM Prison and Probation Service)와 경찰(특히 2015년 이전 그레이터 맨체스터 경찰 데이터 언급)이 보유한 유죄 판결을 받은 범죄자에 대한 데이터만을 사용한다고 주장한다.
이 데이터에는 이름, 생년월일, 성별, 인종, 범죄 기록 등이 포함될 수 있으며, 최대 50만 명의 개인 정보가 관련될 수 있다는 데이터 공유 협약이 드러나기도 했다.
논란이 되는 출처 : 시민 자유 단체인 스테이트워치(Statewatch)는 이 프로젝트가 범죄 피해자, 증인, 실종자, 공공에 위험이 된다고 표시된 개인 등 유죄 판결을 받지 않은 사람들의 데이터와 정신 건강, 중독, 자해, 가정 폭력과 같은 민감한 정보를 포함한다고 주장한다.
법무부는 유죄 판결을 받지 않은 개인의 데이터 사용을 부인하지만, 이러한 상반된 주장은 프로젝트의 실제 데이터 범위에 대한 심각한 불확실성을 야기한다.
설령 유죄 판결을 받은 사람의 데이터만 사용한다 하더라도, 정신 건강이나 중독과 같은 민감 정보가 위험 프로파일링에 사용될 수 있다는 가능성 자체만으로도 심각한 윤리적 우려를 낳는다.
이러한 데이터 범위의 모호성은 프로젝트에 대한 신뢰를 저해하고 투명한 평가를 어렵게 만든다.
현재 상태 : 프로젝트는 "연구 단계"에 있으며, 향후 실행 여부에 대한 결정은 내려지지 않았다.
효과성 및 연구 결과에 대한 보고서는 추후 발표될 예정이라고 밝혔다. 이 프로젝트는 이전 보수당 정부 하에서 시작되었다.
주요 연구 질문 : 프로젝트는 다음 세 가지 핵심 질문에 답하는 것을 목표로 한다.
(1) 데이터 과학이 폭력 범죄 예측을 개선할 수 있는가?
(2) 지역 경찰 데이터가 심각한 폭력 예측의 정확도를 어떻게 향상시킬 수 있는가?
(3) 이러한 도구가 범죄자 위험을 이해하고 지역 법 집행 기관과의 협력을 증진하는 데 어떻게 도움이 될 수 있는가?
2.2 내무부 / 웨스트 미들랜즈 경찰: 국가 데이터 분석 솔루션 (NDAS)
전체 목표 : NDAS는 방대한 경찰 보유 데이터를 보다 효과적으로 활용하기 위한 중앙 집중식 고급 분석 역량을 구축하는 것을 목표로 했다.
내무부의 경찰 혁신 기금(Police Transformation Fund)으로부터 초기 950만 파운드(약 1230만 달러)를 포함한 자금을 지원받았으며, 웨스트 미들랜즈 경찰(WMP)이 주도했다.
활용 사례 1: 가장 심각한 폭력 (Most Serious Violence, MSV) - 예측 요소
목적 : 예측 분석을 사용하여 경찰에 이미 알려진 개인 중 향후 24개월 이내에 총기나 칼을 사용한 첫 심각한 폭력 범죄를 저지를 가능성이 있는 사람을 식별하는 것이었다.
목표는 위험 점수를 생성하여 직업 훈련, 정신 건강 지원 등 지원적 개입 대상을 결정하거나 자원 배분 및 위험 평가에 참고할 보조 정보로 제공하는 것이었다.
데이터 : WMP, 웨스트 요크셔, 워릭셔, 웨스트 머시아 경찰의 개인 수준 데이터.
주요 출처는 범죄, 정보, 구금, 조직범죄그룹(OCG) 데이터였다.
편향을 완화하기 위해 인종, 성별, 위치 변수는 직접적인 입력 변수에서 명시적으로 제외되었으나, 자연어 처리(NLP) 및 네트워크 분석은 사용되었다.
방법론 : 핵심 예측 지표(KPI) 생성(행동적, NLP, 네트워크 분석 기반) 및 모델링(로지스틱 회귀, 그래디언트 부스팅, 랜덤 포레스트 사용 - 후자가 해석 가능성 측면에서 선호됨)을 포함한 5단계 프로세스를 따랐다.
상태 : 2018-2019년 개념 증명(Proof of Concept)으로 개발되었고, 2019년 말에는 "운영 준비가 거의 완료된" 상태로 기술되었다.
그러나 이후 문서에서는 MSV 활용 사례가 예측 분석 포함 문제로 인해 중단(paused)되었음을 시사한다.
이 중단 결정은 예측 기술에 대한 내부적 또는 외부적 우려가 작용했음을 시사하는 중요한 변화이다.
윤리적 프레임워크 (ALGO-CARE) : NDAS는 'ALGO-CARE'라는 자체 윤리적 고려사항 프레임워크를 문서화했다.
이는 알고리즘 결과가 인간의 판단을 대체하는 것이 아니라 보조하는 역할(Advisory Nature)을 해야 하며, 최종 결정은 인간 담당자가 내려야 함(Human Discretion)을 강조했다.
또한 투명성, 합법성(심각한 폭력 전략과의 연계), 필요성 및 비례성 원칙 준수, 데이터 거버넌스(정보 공유 협약, 데이터 보호 영향 평가), 당시 국가 지침 부재 인식, 편향 완화 노력, 대중 참여 필요성, 설명 가능성, 정확성 검증 계획, 안전한 데이터 처리, 감독 메커니즘, 결과 통지 및 이의 제기 절차 등을 포함했다.
잠재적 배포 전에 이처럼 상세한 윤리적 고려사항을 문서화했다는 점은 주목할 만하다.
활용 사례 2 : 폭력 범죄 (Violent Crime, VC) - 통찰력 중심으로의 전환
목적 : 예측에서 벗어나, 폭력 범죄 핫스팟, 네트워크, 피해 정량화, 기여 요인(아동기 부정적 경험, 정신 건강 등 취약성)에 대한 경찰 데이터 기반 통찰력을 제공하여 폭력 감소 부서(Violence Reduction Units, VRUs)와 내무부 정책을 지원하는 것으로 목표가 변경되었다.
예측 모델링을 포함하지 않는다고 명시적으로 밝혔다.
데이터 : MSV와 유사한 출처(정보 로그, 범죄 보고서, 구금, OCG)에 공개적으로 이용 가능한 학교 위치 데이터를 추가했다.
방법론 : 4단계 프로세스(문제 정의, 데이터 탐색, 구조화된 분석 [유형, 핫스팟, 고위험 집단, 네트워크, 기여 요인], 대시보드 및 통찰력)를 따랐다.
시각화와 전략적/운영적 인식 제고에 중점을 두었다.
상태 : 2021년 초 기준으로 개발 중이었으며, VRU를 포함한 전문가들에게 시연되었다.
기존 정보를 대화형 대시보드를 통해 시각화하는 데 유용할 것으로 기대되었다.
기타 NDAS 활용 사례 : 현대판 노예제(운영됨), 직원 웰빙(MSV처럼 중단됨), 조직적 착취, 총기 동향, 가정 폭력 등이 간략히 언급되었다. 이는 NDAS가 폭력 예측에만 국한되지 않은 광범위한 분석 플랫폼이었음을 보여준다.
2.3 광범위한 정책과의 연계: 심각한 폭력 의무 (Serious Violence Duty)
· 2022년 경찰, 범죄, 선고 및 법원법(Police, Crime, Sentencing and Courts Act, PCSC Act)은 법정 '심각한 폭력 의무'를 도입했다.
· 이는 경찰, 사법기관, 소방, 보건, 지방 당국 등 명시된 기관들이 심각한 폭력을 예방하고 줄이기 위해 협력하도록 의무화한다.
· 이 의무는 지역 내 폭력의 원인을 이해하고, 취약 집단을 식별하며, 전략을 개발하기 위해 데이터 공유와 분석을 요구한다.
· 이는 예측 자체는 논란이 되더라도, NDAS나 법무부 프로젝트가 탐색하는 유형의 데이터 분석을 장려하거나 의무화할 수 있는 법적, 정책적 틀을 마련한다.
· 이보다 앞선 2018년의 '심각한 폭력 전략(Serious Violence Strategy)' 역시 다기관 접근, 조기 개입, 데이터 및 증거 활용의 중요성을 강조했다.
이러한 영국 정부의 이니셔티브들은 명칭 변경과 목표 재조정을 통해 '예측'이라는 민감한 용어 사용을 회피하려는 경향을 보인다.
법무부와 내무부/WMP에서 별도로 진행된 프로젝트들은 잠재적으로 단편적인 개발 및 감독 문제를 야기할 수 있으며, 특히 법무부 프로젝트의 데이터 범위에 대한 상반된 주장은 투명성과 신뢰성에 대한 의문을 제기한다.
이러한 프로젝트들은 심각한 폭력에 대응하기 위한 광범위한 정책적 노력의 일환으로 추진되었지만, 그 과정에서 상당한 윤리적, 사회적 논쟁을 불러일으켰다.
3. 허구적 선례: '마이너리티 리포트'의 프리크라임 시스템
영화 '마이너리티 리포트'에 등장하는 프리크라임 시스템은 미래 범죄 예측 기술의 잠재적 위험성을 상징적으로 보여주는 강력한 허구적 사례이다.
3.1 핵심 메커니즘 : 프리콕
· 프리크라임 시스템의 핵심에는 아가사, 아서, 대시엘(영화 기준)이라는 세 명의 돌연변이 인간, 즉 '프리콕(precogs)'이 있다. 이들은 미래에 일어날 범죄, 특히 살인을 미리 볼 수 있는 예지 능력(precognition)을 가졌다.
· 프리콕들은 '템플(Temple)'이라 불리는 부양 탱크 안에 격리되어 있으며, 약물(영화에서는 뉴로인과 연관)에 취해 있고, 신체적으로 변형되거나 의존적인 상태로 묘사된다.
· 컴퓨터가 이들의 뇌파를 감지하여 미래 예측 데이터를 추출한다. 이 과정은 프리콕들에게 끊임없는 폭력 장면을 목격하게 하는 정신적 외상을 안겨주는 것으로 그려진다.
· 프리콕의 예지 영상은 처리, 분석되어 미래의 가해자, 피해자, 범죄 시간 및 장소를 식별하는 정보(영화에서는 나무 공, 원작 소설에서는 천공 카드 형태)로 변환된다.
3.2 예측과 개입 : 확실성과 선제적 조치
· 프리크라임의 기능은 이러한 예측에 기반하여 범죄가 실제로 발생하기 전에 행동하여 '예비 범죄자(pre-criminal)'를 체포하고 구금하는 것이다. 시스템은 거의 완벽한 정확성과 예방 능력을 전제로 운영된다.
· 주로 계획 살인을 예측하지만, 예측 후 개입까지 시간이 짧은 우발적 '격정 범죄(crimes of passion)'(영화에서는 '레드볼')도 식별한다.
· 예비 범죄자들은 프리콕의 예측만을 근거로 재판 없이 유도 혼수 상태나 정지 상태 등으로 무기한 구금된다.
3.3 시스템의 결함: 다수 보고서 대 소수 보고서
· 세 명의 프리콕이 때때로 미래에 대해 서로 다른 예지 영상을 보는 경우가 발생한다.
· 다수 보고서(Majority Report) : 만약 두 명의 프리콕이 동일한 미래를 예지하면, 그 내용이 공식적인 미래 예측인 '다수 보고서'가 된다.
· 소수 보고서(Minority Report) : 다른 예지 내용을 가진 한 명의 프리콕 보고서는 '소수 보고서'가 된다.
영화에서는 시스템의 무결점이라는 환상을 유지하기 위해 소수 보고서가 은폐되지만, 원작 소설에서는 소수 보고서의 존재 자체가 여러 가능한 미래가 존재함을 암시한다.
오류 가능성 또는 대안적 미래의 존재는 시스템의 숨겨진 취약점이다.
3.4 철학적 기반 : 운명 대 자유 의지
· 프리크라임 시스템은 예측된 미래가 프리크라임이 개입하지 않는 한 반드시 일어날 것이라는 결정론적 관점에 기반한다.
· 그러나 프리크라임의 개입 행위 자체와 소수 보고서의 존재는 자유 의지와 변경 가능한 미래라는 개념을 도입한다.
만약 미래가 정말로 고정되어 있다면 개입은 무의미할 것이다. 역설적이게도 프리크라임은 미래가 예측 가능하면서도 동시에 변경 가능하다는 가정에 의존한다.
· 이야기와 영화는 미래에 대한 지식이 미래를 바꾸는지(자기 충족적 예언 또는 자기 회피적 예언) 탐구한다.
3.5 사회적 및 윤리적 맥락 (허구 내에서)
· 프리크라임 시스템은 살인/중대 범죄를 근절하고 궁극적인 공공 안전을 제공한다는 명분으로 정당화된다.
· 그러나 적법 절차 없는 자유 박탈, 유죄 추정 원칙 위반, 오류 가능성(소수 보고서), 프리콕에 대한 착취와 고통 등 막대한 윤리적 대가를 치른다. 이 시스템은 인지된 집단적 안전을 위해 개인의 권리를 희생시킨다.
프리크라임 시스템은 개입 자체가 미래를 바꿀 수 있음을 증명함으로써 시스템의 근간이 되는 결정론적 전제를 스스로 약화시키는 근본적인 역설을 내포하고 있다.
또한, 이 시스템의 작동은 프리콕이라는 취약한 존재를 도구화하고 비인간화하는, 윤리적으로 심각하게 타협된 기반 위에 세워져 있음을 보여준다.
이는 기술적으로 진보된 시스템이라 할지라도 그 기반이 윤리적으로 얼마나 취약할 수 있는지를 극명하게 드러낸다.
4. 비교 분석 : 영국 예측 치안 대 '마이너리티 리포트'
영국 정부의 실제 예측 치안 시도와 '마이너리티 리포트'의 허구적 프리크라임 시스템은 표면적인 유사성에도 불구하고, 목표, 방법론, 개입 방식, 법적·윤리적 기반 등 여러 측면에서 근본적인 차이를 보인다.
4.1 예측 대상 및 확실성
· 마이너리티 리포트 : 특정 미래 범죄(주로 살인)를 가해자와 피해자를 명시하여 사건 발생 전에 거의 확실하게 예측한다고 가정한다. 개입은 확정된 사건을 막는 것을 목표로 한다.
· 영국 시스템 (MoJ/NDAS): 미래 폭력의 위험 또는 가능성을 예측하거나(MoJ; NDAS MSV) 핫스팟을 식별하는 것(NDAS VC; 기타 시스템)을 목표로 한다.
결정론적이 아닌 확률론적 접근이다. NDAS MSV는 첫 심각한 폭력 범죄 예측이라는 구체적 목표를 가졌지만 여전히 확률적이었다.
예측의 확실성은 제한적이며, 정확성 검증이나 오탐(false positive) 가능성이 인정된다 (예: NDAS ).
4.2 방법론 및 데이터 소스
· 마이너리티 리포트 : 세 명의 특수한 인간(프리콕)의 초능력적인 예지 능력에 의존한다. 데이터 소스는 초자연적/생물학적이다.
· 영국 시스템 : 경찰 및 기타 기관이 보유한 과거 데이터(범죄 기록, 정보 보고서, 보호관찰 데이터, 잠재적으로 인구 통계, 정신 건강 데이터 등)에 대한 알고리즘 분석(머신러닝, 통계 모델링, NLP)을 사용한다. 데이터 소스는 경험적이지만 잠재적으로 편향되어 있을 수 있다.
4.3 개입 및 결과
· 마이너리티 리포트 : 예측만을 근거로 재판 없이 선제적으로 체포하고 구금한다. 결과는 미래의 잠재적 행위에 근거한 자유 박탈이다.
· 영국 시스템
MoJ 프로젝트 : 명시된 용도는 연구 및 정책 개발이며, 예측만으로 법정에서 사용하거나 직접 개입하는 것은 아니라고 밝힌다.
NDAS MSV (중단됨) : 지원적 개입(훈련, 정신 건강 지원)을 알리거나 자원 배분을 안내하고, 인간 의사 결정자를 위한 보조 정보 역할을 하도록 의도되었으며, 판단을 대체하지 않는다.
NDAS VC : 전략 계획 및 운영 인식을 위한 통찰력을 제공한다 (핫스팟, 네트워크).
기타 영국 예측 치안 : 일반적으로 예측만으로 선제적 체포를 하기보다는 자원 배치(핫스팟 순찰)를 안내하거나 위험 평가(예: 재활 결정 지원을 위한 HART)에 정보를 제공한다.
4.4 법적 및 윤리적 프레임워크
· 마이너리티 리포트 : 전통적인 법 원칙(무죄 추정, 적법 절차, 재판받을 권리) 외부에서 작동한다. 살인 근절이라는 공리주의적 "대의"를 위해 윤리적 타협(프리콕 착취, 권리 침해)을 정당화한다.
· 영국 시스템 : 기존 법률 체계(데이터 보호법, 인권법, PCSC법 등) 내에서 작동해야 한다.
필요성, 비례성, 편향 완화, 투명성(도전 과제 존재), 인간 감독 등에 초점을 맞춘 명시적인 윤리적 고려 사항이 문서화되기도 한다 (예: NDAS ALGO-CARE).
그러나 비평가들은 현재의 프레임워크가 불충분하며 시스템이 권리를 침해할 위험이 있다고 주장한다.
4.5 투명성 및 이의 제기
· 마이너리티 리포트: 시스템적으로 불투명하다. 소수 보고서는 은폐되거나(영화) 그 존재가 널리 알려지지 않았다(소설). 예비 범죄자가 이의를 제기하거나 항소할 메커니즘은 보이지 않는다.
· 영국 시스템 : 상당한 투명성 문제에 직면해 있다(독점 알고리즘, 공공 등록부 부재).
그러나 원칙적으로 설명 가능성과 이의 제기 메커니즘의 필요성에 대한 인식은 존재한다(예: NDAS 문서; 비평가들의 요구). 데이터 보호법은 일부 권리를 제공하지만, 복잡한 알고리즘에 대한 실효성은 논쟁의 여지가 있다.
4.6 비교 요약표
특징 | 마이너리티 리포트 프리크라임 | 영국 예측 시스템 (MoJ/NDAS 예시) |
예측 대상 | 특정 미래 범죄 (주로 살인), 가해자/피해자 명시 | 미래 폭력의 위험/가능성, 핫스팟, 첫 심각한 폭력 범죄 가능성 |
확실성 | 거의 완벽한 예측 가정 (결정론적) | 확률적 예측, 제한된 확실성 인정 (오류 가능성) |
방법론 | 초능력적 예지 능력 (프리콕) | 알고리즘 분석 (머신러닝 등) |
데이터 소스 | 프리콕의 정신적 예지 | 과거 데이터 (경찰 기록, 보호관찰, 정보 등), 잠재적으로 민감 정보 포함 |
개입 | 선제적 체포 및 구금 | 연구/정책 개발, 지원적 개입 정보 제공, 자원 배분 안내, 통찰력 제공 (직접 개입 아님) |
결과 | 재판 없는 자유 박탈 | 연구 결과, 정책 변화, 지원 서비스 연계, 경찰력 배치 변화 (이론상) |
법적 기반 | 기존 법 원칙 외부에서 작동 | 기존 법률 체계 내에서 작동 (데이터 보호법, 인권법 등) |
윤리적 정당화 | 공리주의 (살인 근절), 프리콕 착취/권리 침해 용인 | 필요성, 비례성, 공공 보호, 편향 완화 시도 (논란 존재) |
투명성 | 시스템적 불투명 (소수 보고서 은폐 등) | 심각한 문제 존재 (독점 알고리즘, '블랙박스'), 설명 가능성 요구 증대 |
이의 제기 | 명시적 메커니즘 부재 | 원칙적 필요성 인정, 데이터 보호법상 권리 존재 (실효성 논란) |
'마이너리티 리포트'와의 지속적인 비교는 범죄 예방에 대한 확실성을 갈망하는 사회적, 제도적 욕구를 반영하지만, 현재 기술은 이를 제공할 수 없다.
허구는 거의 완벽한 예측과 극단적인 개입을 보여주지만, 현실의 영국 시스템은 확률적 위험 평가에 기반하며 미묘한 지원이나 자원 배분을 목표로 한다.
이 기술적, 윤리적 격차는 두 시나리오 간의 근본적인 차이를 보여준다. 따라서 '마이너리티 리포트'와의 비교는 현실 시스템의 한계와 다른 윤리적 계산법을 강조하는 역할을 한다.
또한, '마이너리티 리포트'가 선제적 처벌과 자유 의지의 윤리에 초점을 맞추는 반면, 영국 시스템에 대한 윤리적 논쟁은 데이터 편향, 차별, 프라이버시, 알고리즘 투명성에 더 집중된다.
예측의 원천이 오류 없는 초능력자에서 오류 가능성이 있고 편향될 수 있는 데이터와 알고리즘으로 바뀌면서, 윤리적 도전 과제의 성격이 철학적 결정론에서 실질적인 공정성과 책임의 문제로 전환되었다.
5. 영국 내 예측 치안 현황
법무부와 NDAS의 특정 프로젝트 외에도, 영국 전역의 경찰 조직들은 다양한 형태의 예측 치안 기술을 시험하거나 도입해왔다. 그러나 그 효과와 윤리적 문제에 대한 논쟁은 계속되고 있다.
5.1 도입된 기술 개요
· 지리적 핫스팟 매핑 : 켄트, 그레이터 맨체스터(GMP), 웨스트 미들랜즈(WMP), 웨스트 요크셔(WYP), 런던 경찰청(Met) 등 여러 경찰 조직에서 PredPol과 같은 상용 도구나 자체 개발 시스템을 시험했다.
켄트 경찰은 5년간 PredPol을 사용했지만 효과성 입증의 어려움을 이유로 사용을 중단했다.
이러한 시스템은 과거 범죄 데이터를 기반으로 특정 지역에서 범죄가 발생할 가능성이 높은 '핫스팟'을 예측하며, '근접 반복(near repeat)'이나 '지진 모델(earthquake model)'과 같은 이론에 기반하는 경우가 많다.
· 개인 위험 평가 : 더럼 경찰의 HART(Harm Assessment Risk Tool)는 구금 결정이나 재활 프로그램 의뢰 시 재범 위험을 예측하는 데 사용되었다.
교도소 및 보호관찰소에서 사용되는 기존의 범죄자 평가 시스템(Offender Assessment System, OASys)도 있으며, 연구 결과 인종적 편향이 발견되기도 했다.
· 안면 인식 기술(FRT) : 런던 경찰청과 사우스 웨일스 경찰 등에서 실시간 안면 인식(Live FRT)을 시험했으며, 사후 안면 인식(Retrospective FRT)도 신원 확인 목적으로 사용된다.
사우스 웨일스 경찰의 Live FRT 사용은 편향성 검토 부족 등을 이유로 항소 법원에서 초기에 위법 판결을 받기도 했으며, 정확성과 편향성에 대한 논쟁은 계속되고 있다.
· 기타 AI 응용 : 런던 경찰청과 서리 대학이 협력하여 개발한 칼 인식/데이터베이스 AI, 네트워크 분석(NDAS), 디지털 증거 분석 등 다른 분야에서도 AI 활용이 시도되고 있다.
5.2 법률 및 정책 환경
· 2022년 PCSC법의 심각한 폭력 의무는 데이터 공유와 분석을 장려하는 법적 기반을 제공한다.
· 그러나 영국에는 경찰의 AI 도구 사용을 구체적으로 규제하는 법률이나 중앙 등록 시스템이 부재하다. 규제는 기존 법률(데이터 보호, 평등, 인권)을 기존 규제 기관이 적용하는 방식으로 이루어진다.
· 정부는 AI 규제에 대해 '혁신 친화적(pro-innovation)' 접근 방식을 취하고 있으며, 의회 위원회나 시민 사회에서는 더 구체적인 법률 제정 및 감독 강화를 요구하고 있다.
생체 인식 및 감시 카메라 위원(Biometrics and Surveillance Camera Commissioner)과 같은 감독 기구의 지위도 불확실한 상태이다.
· 일부 경찰 조직 내에서는 자체적인 윤리 위원회(예: NDAS를 검토한 WMP 윤리 위원회; 에이번 앤 서머셋, 템스 밸리 언급 ; 사우스 요크셔 패널)를 운영하거나 국가 차원의 지침(경찰 대학) 개발 노력이 이루어지고 있다.
5.3 효과성 및 도전 과제
· 예측 치안의 효과성에 대한 증거는 혼재되어 있다. 일부 보고서는 성공 사례를 주장하지만(예: 켄트 경찰의 초기 PredPol 주장, 스트래스클라이드 경찰 RFG), 다른 연구에서는 제한적인 영향이나 가치 입증의 어려움을 보여준다(켄트 경찰의 PredPol 폐기, 시카고 분석 결과 예측 성공률 0.5% 미만).
· 데이터 품질 문제, 견고한 평가 프레임워크 부재, 기존 경찰 업무 방식과의 통합 어려움, 경찰관의 과도한 의존 가능성('자동화 편향'), 그리고 다음 섹션에서 자세히 다룰 심각한 윤리적 우려 등이 주요 도전 과제로 지적된다.
· 일부 연구는 예측 매핑이 실제 범죄 발생률보다는 경찰 활동 자체를 예측하는 경향이 있음을 시사하기도 한다.
영국의 예측 치안 환경은 표준화된 평가 지표나 중앙 집중식 감독 없이 개별 경찰 조직별로 다양한 도구를 시험하거나 도입하는 '파편화된(patchwork)' 양상을 보인다.
이러한 단편적인 접근 방식은 국가 전체적으로 예측 치안의 효과성, 비용 편익, 윤리적 함의를 평가하기 어렵게 만들며, 관행의 불일치와 노력 또는 실수의 중복 가능성을 낳는다.
또한, 예측 치안 도구 및 기타 AI 응용(예: FRT)의 빠른 개발 및 채택 속도는 영국의 구체적이고 적절한 법적, 윤리적 거버넌스 프레임워크 개발 속도를 앞지르고 있는 것으로 보인다.
AI의 복잡성을 고려하지 않은 기존 법률에 대한 의존과 '혁신 친화적' 입장은 규제 공백을 야기하며, 윤리적으로 의심스러운 기술 배포가 불충분한 검토 하에 진행될 수 있게 한다.
6. 윤리적 지뢰밭 : 편향, 프라이버시, 책임
예측 치안 기술의 도입은 효율성 향상과 범죄 예방이라는 잠재적 이점에도 불구하고, 심각하고 복잡한 윤리적 문제들을 수반한다.
6.1 데이터 편향과 차별
· 핵심 문제 : 알고리즘은 과거 데이터로부터 학습한다. 만약 이 데이터가 과거의 차별적인 치안 관행(예: 소수 인종 또는 저소득 지역에서의 불균형적인 체포나 불심검문)을 반영한다면, 알고리즘은 이러한 편향을 학습하고 복제하게 된다.
· 발현 양상: 이는 특정 커뮤니티에 대한 과잉 치안, 부정확한 위험 평가(예: OASys 편향, COMPAS 사례), 그리고 인종이나 성별과 같은 보호 특성이 명시적으로 입력되지 않더라도 우편번호와 같은 대리 변수(proxy) 사용을 통해 차별적인 결과를 초래할 수 있다. 특정 인구 집단에 대한 FRT의 정확도 문제도 이를 악화시킨다.
· 제도적 인종차별: 비평가들은 이러한 도구들이 기술적 중립성이라는 외피 아래 형사사법 시스템 내의 제도적 인종차별을 고착시키고 증폭시킬 위험이 있다고 주장한다.
6.2 피드백 루프와 불평등 강화
· 작동 방식 : 편향된 데이터에 기반한 예측은 경찰이 특정 지역/집단을 목표로 삼도록 유도한다 -> 해당 지역에서의 경찰 활동 증가는 더 많은 사건 기록/체포로 이어진다 -> 이 새로운 데이터는 알고리즘의 예측을 확인시켜 준다 -> 알고리즘은 해당 지역에 대한 집중도를 더욱 높여 자기 충족적 예언을 만들어낸다.
· 결과 : 실제 범죄율과 관계없이 자원이 이미 과잉 치안 상태인 커뮤니티에 영구적으로 투입되어 불평등을 더욱 심화시키고 경찰-커뮤니티 관계를 손상시킬 수 있다.
6.3 프라이버시 우려
· 데이터 집계 : 이러한 시스템은 종종 다양한 출처(경찰 기록, 보호관찰, 잠재적으로 보건, 사회 복지, 교육, 심지어 공개 출처까지)로부터 방대한 양의 데이터를 통합해야 한다. 이러한 데이터 집계 자체만으로도 강력한 감시 능력을 창출한다.
· 민감 정보 : 특히 민감한 데이터(정신 건강, 중독, 피해자 정보 – MoJ 프로젝트 비평가들의 주장)의 포함 가능성은 심각한 프라이버시 침해 우려를 낳는다. NDAS 문서 역시 VC 활용 사례 분석 요인으로 ACEs, 정신 건강, 약물 남용과 같은 취약성을 언급한다.
· 감시 : 실시간 FRT와 같은 기술은 공공 감시 능력의 중대한 확장을 의미하며, 익명성과 결사의 자유에 영향을 미친다.
6.4 투명성과 설명 가능성 ('블랙박스' 문제)
· 명확성 부족: 특히 복잡한 머신러닝 모델이나 독점적인 상용 소프트웨어의 경우, 알고리즘이 특정 예측이나 위험 점수에 어떻게 도달했는지 이해하기 어렵거나 불가능한 경우가 많다.
· 책임성 결여: 이러한 불투명성은 시스템의 편향성을 검토하고, 잘못된 결과에 이의를 제기하며, 오류에 대한 책임을 묻는 것을 어렵게 만든다. 경찰관이 이해하지 못하는 결정을 어떻게 의미 있게 검토하거나 기각할 수 있겠는가?
· 대중 신뢰: 투명성 부족은 특히 시스템이 개인의 삶과 자유에 영향을 미칠 때 대중의 신뢰를 약화시킨다.
6.5 정확성, 오류, 책임
· 예측의 불확실성 : 예측은 확률적이며 확실하지 않으므로 오류(오탐, 미탐(false negative))는 불가피하다.
· 오류의 결과 : 오탐은 부당한 의심, 감시 또는 개입으로 이어져 개인의 삶을 망칠 수 있다. 미탐은 실제 위험을 놓치는 것을 의미한다. 결과의 심각성은 예측이 어떻게 사용되는지(자원 배분 대 직접 개입)에 따라 크게 달라진다.
· 책임 소재 : 알고리즘이 해로운 결과에 기여했을 때, 개발자, 데이터 제공자, 경찰 조직, 또는 결과에 따라 행동한 개별 경찰관 중 누가 책임이 있는가? 명확한 책임 소재를 확립하는 것은 주요 과제이다.
예측 치안 알고리즘은 데이터에 존재하는 기존 사회적 편향을 단순히 반영하는 것을 넘어, 피드백 루프와 데이터 기반 의사 결정이라는 객관적인 외피를 통해 이를 증폭시킬 위험이 있다.
이는 인종 차별과 같은 뿌리 깊은 시스템적 문제를 기술적으로 정당화된 것처럼 보이게 만들어 식별하고 해결하기 더 어렵게 만들 수 있다.
또한, 예측 정확도를 높이려는 욕구(종종 더 다양하고 잠재적으로 민감한 데이터 세트 통합을 포함)와 기본적인 프라이버시권 사이에는 본질적인 긴장 관계가 존재한다.
MoJ 프로젝트(데이터 범위 논란)나 NDAS(취약성 고려)와 같은 이니셔티브는 더 풍부한 데이터를 향한 이러한 추진력을 보여주며, 특히 범죄 유죄 판결을 넘어서는 데이터를 포함할 때 어디에 선을 그어야 하는지에 대한 중요한 질문을 제기한다.
불투명한 알고리즘('블랙박스'), 경찰 조직 간의 단편적인 배포, 기존(잠재적으로 부적절한) 규제에 대한 의존 등이 결합되어 잠재적인 책임 공백을 야기한다. 문제가 발생했을 때 책임 소재를 밝히기 어려워 피해를 입은 개인에 대한 구제를 방해하고 시스템 전체의 학습을 저해한다.
7. 비판적 목소리 : 시민 사회와 전문가들의 우려
영국 정부의 예측 치안 기술 개발 및 사용에 대해 시민 사회 단체, 학계, 심지어 일부 공식 기구에서도 심각한 우려와 비판이 제기되어 왔다.
7.1 시민 사회 단체
· 스테이트워치 (Statewatch) : MoJ 프로젝트를 폭로하고 "소름 끼치고 디스토피아적"이라고 비판하며, 예측 알고리즘의 결함, 제도적 인종차별 강화 위험, 민감 정보 사용 우려를 강조했다. 데이터 공유 협약의 세부 내용을 공개하기도 했다.
· 리버티 인권 (Liberty Human Rights) : 보고서를 통해 예측 치안이 소외된 지역 사회에 대한 불공정한 처우를 심화시키고, 편향된 데이터를 사용하며, 피드백 루프를 생성하고, 투명성이 부족하다고 주장했다. 면밀한 조사와 이의 제기 메커니즘을 요구했다.
· 빅 브라더 워치 (Big Brother Watch) : 브리핑 자료에서 편향, 투명성 부족, 무죄 추정 원칙 침식, 데이터 보호 문제, 인권 위협(특히 FRT)에 대한 우려를 제기했다. 의무적인 편향성 테스트, 인간 감독 강화, 특정 예측 시스템 금지, 실시간 FRT 중단을 권고했다.
· 연합체 : 생체 인식 감시 및 예측 치안이 불평등을 확대하고 소외된 집단을 표적으로 삼는다는 이유로 금지를 요구하는 공동 성명이 있었다.
7.2 학계 및 연구 기관
· 왕립합동군사연구소 (RUSI) : 데이터 윤리 센터 의뢰 보고서에서 법적/윤리적 우려, 국가 지침 필요성, 영향 평가의 중요성을 강조했다.ㅡ이전 보고서에서는 예측 매핑과 개인 위험 평가를 주요 응용 분야로 식별했지만, 통합 지연과 더 나은 모델의 필요성을 지적했다.
· 왕립통계학회 (Royal Statistical Society) : 공상 과학과 현실을 연결하며, 위험 예측에 인구 통계학적 특성을 사용하는 것에 대한 철학적/윤리적 문제를 제기했다.
· 기타 학술적 비판 : 효과성에 대한 증거 부족, 자동화 편향 위험, 예측에 대한 신뢰도 등급 필요성, 디지털 포렌식 역량 부족 등에 대한 우려가 제기되었다. 경찰 AI 프로젝트 평가에 대한 응용 규범 철학적 관점도 제시되었다.
7.3 공식 및 준공식 기구
· 웨스트 미들랜즈 경찰 윤리 위원회 : NDAS에 대한 검토를 제공하고 윤리적 고려 사항을 질문하고 검토했다.
· 법무 및 내무 위원회 (Justice and Home Affairs Committee) : 보고서에서 형사사법 시스템(CJS) 내 AI 사용에 대한 감독, 규제, 조사, 정보 부족 문제를 지적했다.
· 평등 및 인권 위원회 (EHRC) : 독립적인 조사가 이루어질 때까지 자동화된 FRT 및 예측 알고리즘 사용 중단을 요구했다.
· 경찰 디지털 윤리 독립 패널 (IDEPP) : 부적절한 국가 감독 메커니즘과 충분한 윤리적 검토 없이 도입을 추진하는 상업적/정치적 압력에 대한 우려를 표명했다.
· 항소 법원 : 사우스 웨일스 경찰의 실시간 FRT 사용에 대한 판결에서 편향성 검토 부족과 부적절한 정책 프레임워크를 이유로 위법이라고 판단했다.
7.4 정부의 대응 및 정당화
· 법무부 (MoJ): 연구 목적임을 강조하고, 유죄 판결받지 않은 개인 데이터 사용을 부인하며, 공공 보호를 위한 위험 평가 개선 목표를 내세운다.
· 내무부 / WMP (NDAS 관련): 피해 예방, 취약 계층 지원 잠재력, 윤리적 검토의 필요성, 기술이 전문적 판단이나 책임을 대체하지 않을 것임을 강조했다. 결과물의 조언적 성격을 부각했다.
· =광범위한 정부 입장: AI 규제에 대한 '혁신 친화적' 접근 방식, 기존 규제 기관을 위한 원칙 중심 접근. AI 역량 투자. 심각한 폭력 전략/의무의 틀 내에서 정당화.
시민 사회, 학계, 일부 공식 기구 사이에서는 예측 치안과 관련된 중대한 윤리적 위험(편향, 차별, 프라이버시, 투명성 부족)에 대한 광범위한 공감대가 형성되어 있다.
그러나 적절한 해결책에 대해서는 의견이 분분하다. 완전한 금지나 유예 요구부터 더 강력한 규제, 의무적 테스트, 투명성 개선, 견고한 윤리적 감독 강화 요구까지 다양하다.
반면 정부는 잠재적 이점과 기존 안전 장치를 강조하며 가벼운 규제 접근 방식을 추구하는 경향이 있다.
또한, 비평가들이 '마이너리티 리포트' 비유를 지속적으로 사용하는 것과 정부가 프로젝트 명칭을 변경하는 반응적 조치는 이 논쟁에서 프레이밍(framing)의 힘을 보여준다.
현실 기술을 디스토피아 소설과 연관시키는 것은 즉각적으로 대중의 경각심을 불러일으키는 반면, 관료적이거나 연구 지향적인 언어("위험 평가", "통찰력 생성")는 우려를 중화시키려는 목적을 갖는다.
이러한 언어 전쟁은 대중의 인식을 형성하고 이러한 기술의 정치적 실현 가능성에 영향을 미친다.
8. 예측 치안의 미래 탐색
8.1 연구 결과 종합
영국 정부는 법무부와 내무부/WMP 주도로 심각한 폭력 예측 또는 관련 위험 분석을 위한 구체적인 이니셔티브를 추진해왔다.
이들 프로젝트는 연구, 위험 이해, 통찰력 제공 등을 공식 목표로 내세웠으나, 데이터 범위와 예측 요소 포함 여부를 둘러싼 논란에 휩싸였으며, 시간이 지남에 따라 명칭과 목표가 조정되는 모습을 보였다.
이러한 현실 세계의 시스템들은 확률적이고 데이터 기반이며 지원 또는 자원 배분을 목적으로 하는 반면, '마이너리티 리포트'의 허구적 프리크라임 시스템은 결정론적이고 초능력 기반이며 선제적 처벌을 가한다.
따라서 '마이너리티 리포트' 비유는 강력한 경고 메시지를 전달하지만, 현재 영국 접근 방식에 내재된 알고리즘 편향, 데이터 프라이버시, 투명성이라는 구체적인 윤리적 과제를 지나치게 단순화할 위험이 있다.
영국의 전반적인 예측 치안 환경은 단편적이며, 일관된 감독 및 평가 체계가 부족하고, 기술 발전을 따라가지 못하는 규제 환경 속에서 운영되고 있다.
8.2 주요 과제 재확인
핵심적인 윤리적 과제는 여전히 남아있다: 편향과 차별을 고착시키고 증폭시킬 높은 위험, 데이터 집계를 통한 프라이버시 위협, 면밀한 조사와 책임을 방해하는 투명성 부족, 그리고 많은 응용 프로그램의 효과성 미입증. 지지자들이 자주 언급하는 잠재적 이점(효율성, 목표 예방)과 비평가 및 연구가 강조하는 중대하고 문서화된 위험 사이의 긴장 관계가 뚜렷하다.
8.3 책임 있는 거버넌스를 위한 권고 사항
예측 치안 기술의 책임 있는 개발 및 사용을 보장하기 위해 다음과 같은 조치가 필요하다.
· 투명성 의무화 : 형사사법 시스템에서 사용되는 모든 AI/알고리즘 시스템의 공공 등록부를 요구한다. 데이터 보호 영향 평가(DPIA) 및 알고리즘 영향 평가(편향성 감사 포함) 결과를 의무적으로 공개한다. 영향을 받는 개인에게 결정을 설명할 수 있는 메커니즘을 보장한다.
· 독립적인 윤리적 감독 : 경찰 내 고위험 AI 시스템 배포를 검토하고 승인하며, 명확한 윤리 기준을 설정하고 규정 준수를 감사하는 강력하고 독립적인 기구를 설립하거나 기존 기구에 충분한 자원과 권한을 부여한다. 여기에는 기술 전문가, 윤리학자, 법률가, 지역 사회 대표 등 다양한 이해관계자의 참여가 포함되어야 한다.
· 편향 완화 및 설계 단계에서의 공정성 : 다양한 데이터 세트와 방법론을 사용하여 배포 전에 인종, 성별, 사회경제적 편향성에 대한 엄격한 테스트를 의무화한다. 배포 후 차별적 영향에 대한 지속적인 모니터링 및 감사를 요구한다. 시스템 설계 수명 주기 전반에 걸쳐 공정성 고려 사항을 내장한다. 편향 완화 기술을 탐색하되 그 한계를 인정한다.
· 명확한 법적 프레임워크 : 형사사법 시스템에서의 AI 사용에 대한 구체적인 법률 또는 법적 구속력 있는 지침을 개발하여 허용 가능한 데이터 소스, 요구되는 인간 감독 수준, 정확성 및 검증 표준, 책임 프레임워크를 명확히 한다. 자동화된 의사 결정과 관련된 기존 데이터 보호법의 한계를 해결한다.
· 목적 제한 및 필요성/비례성 원칙 : 필요성과 비례성 원칙을 엄격하게 적용한다. 예측 시스템은 덜 침해적인 수단으로는 충족될 수 없는 명확하고 증거 기반의 필요성이 존재하고, 잠재적 이점이 윤리적 위험과 사회적 비용을 명백히 능가하는 경우에만 배포되어야 한다. 특히 위험성이 높은 응용 프로그램(예: 매우 민감한 데이터 기반 예측 시스템 또는 관리 불가능한 편향 위험이 있는 시스템, 잠재적으로 공공 장소에서의 실시간 FRT)에 대해서는 완전한 금지를 고려한다.
· 의미 있는 인간 통제 : 알고리즘 출력이 항상 인간 의사 결정자를 대체하는 것이 아니라 지원하는 역할을 하도록 보장한다. '의미 있는' 인간 검토 및 개입이 무엇인지 명확하게 정의하고 자동화 편향을 경계한다. 경찰관이 알고리즘 제안을 기각할 수 있는 훈련과 권한을 갖도록 보장한다.
심각한 폭력을 예측하고 예방하려는 유혹은 강력하다.
그러나 기술 주도 솔루션 추구는 정의, 공정성, 기본권에 대한 깊은 헌신으로 균형을 이루어야 한다.
앞으로 나아가기 위해서는 기술 혁신뿐만 아니라 엄격한 윤리적 검토, 투명한 거버넌스, 그리고 이러한 도구가 과연 공정하게 공익에 기여하는지에 대한 끊임없는 질문이 필요하다.
그렇지 않으면 우리는 해결하려는 바로 그 불평등을 코드화하는 시스템을 무심코 구축하게 될 위험이 있다.
'5분전 발행-생활정보' 카테고리의 다른 글
김수현 악플러 고소, 정보통신망법 명예훼손 및 모욕죄 처벌 수위 완벽 정리 (14) | 2025.04.15 |
---|---|
2025년 소상공인 배달·택배비 지원금 30만원, 놓치면 안 되는 신청 방법과 자격 조건 총정리 (8) | 2025.04.14 |
인도네시아의 자랑! '메가트론' 메가왓티 V-리그 활약상 총정리(인도네시아 팬 필독!) (4) | 2025.04.14 |
스마트폰 모바일앱으로 과속위반 단속 조회하는 방법 (0) | 2025.04.14 |
짠테크 고수 곽지현은 어떻게 최저임금으로 26세에 2억 6천만원을 모았을까 (8) | 2025.04.13 |