|
고학수 개인정보보호위원회 위원장은 8일 서울 강남구 삼성동 코엑스에서 열린 ‘2023 개인정보보호 페어’에서 이같이 말했다. 챗GPT 등장 이후 수면 위로 떠오른 개인정보 침해 등 다양한 부작용을 해소할 정책적 조치가 필요하다고 강조한 것이다.
그는 “AI 개발부터 전 과정에 걸쳐 적법성과 투명성을 보장하기 위한 개인정보 원칙 준수가 중요하고, 사회적 신뢰가 확보돼야 한다”며 “사회적 우려와 국민 불안을 줄일 수 있도록 데이터 활용 기준을 마련해나가겠다”고 설명했다.
타 국가 규제기관과의 논의를 기점으로 AI 관련 데이터 활용 정책 방향을 구체화시키겠다는 의지도 피력했다. 앞서 개보위는 오는 23일 ‘생성형 AI 프라이버시 이슈’를 주제로 국제 콘퍼런스를 열고 글로벌 전문가들과 ‘AI 개인정보 이용 가이드라인’에 대해 논의하겠다고 밝힌 바 있다. 해당 콘퍼런스에는 유럽연합(EU), 영국, 일본 등 주요국 규제 감독기구 수장들과 AI 관련 석학들이 참여하는 것으로 알려졌다.
이날 행사에 참석한 주요 인사들도 생성형 AI에 대한 규제가 필요하다고 입을 모았다.
이어 “전송요구권과 삭제요구권을 규율하고 있지만, 신용정보나 의료정보가 집약적으로 모여 있는 기업에서 유출이나 해킹 사고가 발생하면 피해는 상상을 초월한다”며 “생성형 AI는 안정성을 기반으로 해야만 혁신 ‘키’가 된다”라고 덧붙였다.
이원태 한국인터넷진흥원(KISA) 원장 또한 “생성형 AI 등장으로 발생한 다양한 개인정보 관련 문제는 현재 법 제도가 완성형이 아니라 끊임없이 발전해야 한다는 의미를 담고 있다”며 “AI를 인간의 생산성을 늘리는 혁신 기술로 올바르게 사용하기 위해서는 국민과 사회 불안을 해소하는 해결방안을 고민해야 한다”고 말했다.