“AI 기술 편익 크지만 리스크 예측 불가…사회 전체가 감당해야”

186

[아이뉴스24 박진영 기자] “인공지능(AI)이 급속하게 발전하면서 큰 사회적 편익이 기대되지만 그로 인한 리스크도 예측하기 어려워졌다. 이런 상황에서 개인정보 처리자 등 개개인이 아니라 사회적 차원에서 리스크 부담을 감당해야 한다.”

개인정보보호위원회는 2월 29일 오후 서울 중구 포스트타워에서 제1차 2024 개인정보 미래포럼을 개최했다. [사진=개인정보보호위원회]

윤종수 법무법인 광장 변호사는 지난 29일 열린 ‘제1차 2024 개인정보 미래포럼’에서 “이제는 개인정보 보호를 위한 방어 정책이 아닌, AI와 같은 새로운 기술 등장에 따른 리스크 규제를 어떻게 할지 고민해야 한다”고 강조했다.

AI 기술 발전에 일일이 대응할 수 없을 뿐더러 피해 규모도 예측할 수 없기 때문에 개인정보 처리자나 정보 주체에 책임을 지우는 것이 아니라 사회적 차원에서 리스크 규제를 고민할 필요가 있다는 것이다.

또한 AI 생명주기에 따른 다양한 위협 요인이 존재하기 때문에 현실적으로 규제 정책 설계의 어려움이 있다는 의견도 나왔다.

AI 생명 주기는 △데이터 수집 △데이터 저장·전처리 △데이터 학습 △AI 서비스 제공 등으로 구분된다. 데이터 수집 단계에선 최소수집·공개데이터 수집을 원칙으로 하고 데이터 저장·처리 단계는 저장보안와 익명화·가명화가 적용돼야 한다. 데이터 학습 및 모델링에서는 투명성을 확보하고 AI서비스를 제공할 경우 설명가능성이 전제돼야 한다.

최대선 숭실대 교수는 “AI 생명 주기에 따른 위협 요인이 존재하지만 모든 단계에 따라 정책적 규제를 두기엔 현실적으로 쉽지 않다”면서 “데이터 전처리 단계 등 앞부분에서 보호 기술을 적용했지만, 뒤에서 문제가 발생할 수 있기 때문에 결과만 가지고 규제 정책을 논하는 게 자유도를 높일 수 있을 것”이라고 말했다.

이날 열린 미래포럼 제1차 회의에서는 ‘인공지능과 개인정보’를 아젠다로 개최됐고 최대선 위원(숭실대 교수)과 김남국 교수(서울아산병원)가 각각 ‘AI 프라이버시 기술’과 ‘의료 인공지능 모델과 프라이버시’를 주제로 발제했다.

한편 개인정보위는 신뢰할 수 있는 AI 환경을 마련하기 위해 ‘개인정보 보호법’ 적용 원칙과 기준을 구체화한 AI 단계별 6대 가이드라인을 마련한다. 구체적으로 공개된 정보, 비정형데이터, 생체인식정보, 합성데이터, 이동형 영상기기, 투명성 확보 등에 대한 가이드라인을 연내 구체화할 방침이다.

+1
0
+1
0
+1
0
+1
0
+1
0