|
아누팜 챈더 미국 조지타운 법대 교수는 23일 서울 중구 더 플라자 호텔에서 열린 ‘AI·데이터 프라이버시 국제 컨퍼런스’에서 기존 법률 원칙에 기반한 넓은 범위의 공동 AI 규제가 필요하다고 강조했다.
국가별로 가치관이나 법적 판단에 대한 차이가 존재해 모든 국가에 일괄적으로 적용될 규제를 새로 만들었다가는 ‘파편화’만 부추겨 새로운 문제가 발생할 가능성이 크다는 의미다.
AI 규제 ‘파편화’를 막아야 하는 이유
그가 법률 파편화를 막아야 한다고 주장하는 이유는 일괄적 AI규제를 만들게 되면 각 국가가 보유한 현지법과 맞지 않아 글로벌 기업의 해외 진출 시 제한이 생길 가능성이 크기 때문이다. 불필요한 비용이 발생할 뿐만 아니라, 특정 국가에는 진입하지 않으려는 일이 생길 것이란 의미다.
이 같은 일을 막기 위한 방안으로 그는 기존 법률을 활용해 핵심 가치를 지킬 수 있는 넓은 규제를 만들어야 한다고 역설했다. 국가별로 가치관이 다르고 합법성도 다를 수는 있지만 공정성, 투명성 등 핵심적 가치에서는 일치하는 경우가 많다는 이유다.
그는 “유럽의 일반 개인정보보보호법(GDPR)에는 이미 AI 개인정보처리에 대한 내용을 담고 있다”며 “지식재산권법, 계약법, 소비자보호법 등 전통적 프라이버시 법을 참고해 AI를 규제할 수 있을 것”이라고 설명했다.
이어 “중국은 광범위한 AI규제를 도입하고 있는데 AI에서 나오는 결과물이 사회주의적 핵심 가치와 부합해야 한다고 천명했다”며 “EU AI 법안 같은 경우에도 실제 사안을 바라보는 과정에서 인식의 차이가 나타날 수 있는데, 그 차이를 제외하고 나머지 절차상 통일성을 규정한 사례”라고 덧붙였다.
업계 “AI 발전 저해하지 않는 합리적 규제 필요”
김현종 삼성전자 법무실 개인정보보호 담당 상무는 “모든 규제 영역이 그렇듯 현실과 법 사이에는 어느 정도 긴장관계가 있고, 이는 데이터 프라이버시와 AI도 마찬가지”라며 “AI 경쟁력 핵심이라고 볼 수 있는 대량 데이터 확보, 최신성 등을 유지하려면 지속적 머신러닝(ML)이 필요하기 때문에 기술 촉진이 규제로 인해 저해해서는 안 된다”고 말했다.
|
안젤라 쉬 구글 개인정보보 보호 법률팀 책임자는 “AI를 위험과 기회라는 렌즈를 통해 바라봐야 한다”며 “개인정보 침해를 최소화하면서 균형 있게 학습 데이터를 확충하는 것이 필요하다”고 말했다.