
AI(인공지능) 대전환 시대에 발맞춰 인터넷 종합 미디어 <더팩트>와 <개인정보보호법학회>가 손잡고 '인공지능 대전환시대 데이터법제의 발전'을 주제로 한 기획 칼럼 시리즈를 연재합니다. 이번 기획은 AI 혁신을 위한 필수 과제인 데이터의 활용과 보호 간 균형을 맞추는 정교한 법제도 정비의 중요성에 주목했습니다. 특히 AI 시대에 맞는 개인정보보호법 재설계의 필요성에 대한 심도 있는 논의를 이끌어낼 예정입니다. 데이터가 어떻게 수집되고, 활용되며, 보호돼야 하는지에 대해 전문가들의 학문적 분석과 사회적 담론을 제공합니다.<편집자 주>
[더팩트 | 김도승 교수(전북대 로스쿨, 개인정보보호법학회 회장)] 우리는 지금 데이터가 산업·행정·사회의 전 영역을 관통하는 거대한 AI 전환의 정점에 서 있다. 이처럼 기술은 이미 사회의 구조를 근본적으로 바꾸고 있지만 법제는 여전히 정적이고 과거의 정보처리 패러다임에 머물러 있다. 이에 개인정보보호법학회는 인공지능 대전환 시대 개인정보 보호규범의 변화 필요성과 기본 방향을 논의하기 위해 <더팩트>와 손잡고 지난 9월부터 기획 칼럼을 발표했다. 이번 기획 칼럼을 통해 우리는 인공지능 대전환으로 기존의 개인정보보호법 체계 전반에 걸친 구조적 재검토가 절실함을 확인했다.
분절된 정보주체 권리 체계와 경직된 개인정보 적법 처리 구조의 문제가 인공지능 대전환이라는 거대한 환경변화를 맞아 부작용이 더욱 심화되고 있다. 우선, 정보 흐름의 특성 자체가 달라졌다. 데이터는 더 이상 "한 번 수집하고, 특정 목적을 위해 일회적으로 쓰는 정보"가 아니라, AI가 반복적으로 학습·추론·생성하는 과정에서 끊임없이 재결합되고 확장되는 구조 안에서 기능한다는 점은 주지의 사실이다. 전통적 개인정보 규범이 전제하던 통제 방식, 즉 목적을 명확히 특정하고, 최소한으로 수집하며, 개인이 사후적으로 열람·삭제·정정할 수 있다는 구조는 AI 환경에서는 그 실효성을 잃어 가고 있다. 법이 산업을 따라가지 못하는 것이 아니라 기술의 작동 방식과 법적 권리의 구조가 근본적으로 어긋나고 있는 것이다. 이 간극을 메우기 위한 새로운 제도적 장치와 법체계의 정립이 절실하다.
정보주체의 권리 역시 재구성되어야 한다. 자동화된 의사결정, 알고리즘적 편향, 설명 불가능성, 비가역적 학습효과는 기존의 권리 체계만으로는 대응하기 어렵다. 열람·삭제·정정권이 특정 "파일"과 "처리자"를 전제로 만들어졌다면, AI 시대의 권리는 정보가 어떤 방식으로 결합되는지, 어떤 기준으로 판단이 이루어졌는지를 실질적으로 관리하는 방향으로 정립될 필요가 있다. 이는 단순한 권리 확대가 아니라 기술적 투명성과 책임성에 기반한 새로운 사회계약을 설계하는 문제이다.

데이터 활용의 관점에서도 전면적 재정비가 필요하다. 인공지능 개발과 서비스 고도화를 위해서는 공개된 개인정보, 가명정보, 익명정보 등 다양한 데이터의 활용이 필수적이지만 현재의 법제는 여전히 불확실성이 높고 절차적 부담이 크다. 가명처리 기준, 동의를 요하지 않는 정당한 이익이나 계약의 이행 인정 범위, PETs(Privacy Enhancing Technologies) 적용 기준 등에서 해석의 안정성이 확보되지 않으면 기업은 형식적인 리스크 회피에 머물 수밖에 없다.
예를 들어 PETs, 즉 개인정보를 보호하면서 데이터의 분석과 활용을 가능하게 하는 기술이 중요하다는 점에는 모두 동의하지만, 현행 법제에서 PETs를 ‘어떻게 평가하고 인정할 것인지’에 대한 법적 기준이 여전히 미비하다. 때문에 그 활용의 유인이 반감되고 있는 실정이다. 이제 우리는 데이터 활용과 권리 보호가 충돌하는 지점마다 "안정적 활용을 위한 신뢰받는 안전장치"라는 원칙 아래에서 새로운 균형을 설계해야 한다.
공공부문의 역할 또한 중요하다. 행정은 가장 방대한 개인정보를 보유한 정보처리자이자, AI 행정의 선도자다. 행정이 보유한 데이터와 AI가 결합될 때 개별 국민의 권리 보호는 훨씬 더 복잡해지지만, 동시에 가장 혁신적인 공공서비스로 이어질 수 있다. 디지털 정부의 신뢰는 법제의 정교함과 행정의 책임성에서 비롯된다. 이를 위해서는 투명성, 영향평가, 비차별성, PET 기반의 안전조치 등 공공부문만의 고유한 보호이자 활용 전략이 필요하며, 공행정에서의 개인정보 처리에 관하여 공익 관점의 일정한 특별한 규율을 고민할 필요가 있다.
그리고 또 하나의 화두, 개인정보보호체계의 뼈아픈 공백인 피해구제 문제를 주목할 필요가 있다. 바로 과징금을 주요 재원으로 하는 "개인정보피해구제기금"의 신설에 관한 논의이다.
AI 시대의 개인정보 침해는 더욱 구조적이고 장기적이며, 피해의 양상은 2차·3차 피해로 확산된다. 법위반 사업자에 대해 막대한 과징금이 부과되지만, 그 재원은 국가의 일반회계로 귀속될 뿐 관련 피해구제나 예방을 위해 직접 사용되지 못한다. 결국 법 위반으로 걷어들인 과징금이 피해자 보호나 예방적 투자로 이어지지도 못하면서 정부 제재와 피해구제간 단절 구조가 고착되고 있다. 개인정보 정책을 총괄하는 위원회의 제한된 예산과 조직은 정부가 그에 합당한 행정책임을 충실하게 이행하는 데에도 근본적인 한계를 초래한다.

기업의 위법행위로 발생한 금전적 제재가 실제 피해자의 회복과 사회 전체의 데이터 안전망 강화로 이어진다면 제재의 정당성과 사회적 신뢰는 더욱 공고해질 것이다. 더욱이 개인정보 사고의 상당수는 영세·중소기업에서 발생한다는 점을 고려할 때 기금은 이러한 기업의 개인정보 보호 역량을 강화하는 ‘안전판’으로 기능하며, 피해자와 기업 모두를 살리는 이중 구조의 공공재 역할을 수행할 수 있을 것이다. 물론 나라 살림을 책임지는 기획재정부로서는 기금처럼 일반예산과 단절되는 재정 칸막이의 신설을 쉽게 수용하기 어려울 것이다. 그러나 오늘날 기금 역시 일반예산에 준하는 관리·통제를 받고 있고, 무엇보다 피해구제기금은 데이터 시대의 책임과 회복을 하나의 체계로 묶어내는 구조적 개혁이며 단순히 예산운용의 관점에서 관성적인 반대를 할 사항이 아니다.
인공지능 대전환은 단순한 기술환경의 문제가 아니라 국가 생존전략의 영역이며, 개인정보보호법의 재설계는 그 전략의 중심축이다. 우리는 이제 보호·활용·책임이라는 세 축을 조화시키는 새로운 법적 구조를 만들어야 한다. 그리고 그 구조 속에서 "개인정보피해구제기금"은 피해보상·예방·역량 강화라는 삼중의 목적을 수행하는 전략 자산으로 기능하게 될 것이다.
앞으로 국회와 정부가 이러한 시대적 요구를 바탕으로 개인정보보호법의 전면적 개정 논의를 본격화해주기를 기대한다. 기술의 속도를 따라가는 법이 아니라 기술과 권리의 균형을 다시 그려내는 법이 필요한 시대다. 인공지능 대전환 시대에 개인정보는 어떻게 보호되고 어떻게 활용되며 그 과정에서 개인·기업·국가가 서로 어떤 책임과 권한을 갖는지에 대한 새로운 합의 구조를 입법화해야 한다. 이제 개인정보보호의 새로운 사회계약을 설계할 때가 왔다.

▶AI 대전환시대 공동 기획 칼럼 관련 시리즈
[기획 칼럼⑲] 공공행정의 혁신과 개인정보 보호의 상관 관계
[기획 칼럼⑱] 개인정보 보호법상 형사처벌 규정 개선을 위한 관계기관 소통 절실
[기획 칼럼⑰] 상시적 내부통제 강화는 규제 아닌 경영문화로 자리 잡아야
[기획 칼럼⑯] 법률 AI 혁신의 시대, 유연성과 개방성의 저울로 공정의 중심을 세우자
[기획 칼럼⑮] AI 대전환 시대, 가명정보 활용의 새로운 기준을 세워야 할 때
[기획 칼럼⑭] 인공지능 개발을 위한 개인정보 처리 특례에 주목하는 이유
[기획 칼럼⑬] 인공지능 시대, 개인정보처리 근거로서 ‘계약의 이행’