본문 바로가기

AI 규제 관련 해결 과제 4가지...가트너, '법률 시행 이전 준비해야'

반응형

예상하지 못했고 준비하지 않았다면, 놀라움은 커지고 혼란을 피할 수 없다. 지금 그런 놀라움과 혼란의 중심에 있는 것은 대규모 언어 모델(LLM;large language model) 등을 기반으로 하는 생성(Generative) AI다. 어떤 것은 상상 속에 존재했고, 어떤 것은 생각조차 하지 못했던 것이, 이제는 현실이 됐다. 하루아침에 세상이 달라졌으니, 그에 따른 혼란과 문제도 속속 모습을 드러내고 있다.

가트너가 오픈AI의 챗GPT(ChatGPT)나 구글의 바드(Bard)와 같은 대규모 언어 모델에 대한 규제와 지침을 제정하려는 세계 각국의 움직임에 대해, 기업의 법률 책임자나 고문 등이 미리 준비하고 해결해야 할 과제 4가지를 발표했다. AI 사용에 대한 투병성 확보, 지속적인 리스크 관리 보장, 인적 감독과 책임을 포함하는 거버넌스 구축, 데이터 프라이버시 위험 방지가 그것이다.


'AI 사용에 대한 투명성 확보'는 생성 AI 사용과 활용에 있어 가장 먼저 고려해야 하는 중요 항목이다. 전 세계적으로 진행되고 있는 AI에 대한 규제의 핵심에는 AI를 누가 어떻게 어떠한 용도로 활용해 무엇을 했는지에 대한 정보를 투명하게 공개할 것을 요구하고 있기 때문이다. 따라서 기업의 법률 리더는 AI를 활용하는 과정에서 발생하는 모든 것들을 모든 사람에게 명확하게 알릴 수 있는 방법을 고민해야 한다.

가트너는 "마케팅 콘텐츠와 채용 프로세스에서 AI를 사용하는 경우, 법무 리더는 회사 웹사이트의 개인정보 고지 및 이용 약관을 업데이트하여 AI 사용을 반영함으로써 도움을 줄 수 있다. 그러나 조직의 온라인 신뢰 센터에 별도의 섹션을 개발하는 것이 좋다. 또는 데이터를 수집할 때 조직이 AI를 사용하는 방식을 구체적으로 설명하는 특정 시점 고지를 게시할 수도 있다"고 조언한다.

'지속적인 리스크 관리 보장'의 출발점은 법무 리더나 법률 고문이 위험성이 높은 AI 도구의 수명 주기 전반에 걸친 위험 관리 통제 방안을 마련하는 부서와 함께 협력하는 것이다. 이를 테면 AIA(algorithmic impact assessment)를 통해 의사 결정을 문서화하고 현재와 미래의 규제 위험에 및 기타 책임을 줄이는 것이 접근 방법이 될 수 있다.

'인적 감독과 책임을 포함하는 거버넌스 구축'은 AI 도구를 활용해 생산한 결과물을 점검하고 감독하는 체계를 마련하는 것이다. AI를 감독하고 통제할 수 있는 AI 담당자를 지정하는 것을 말한다. AI 이니셔티브를 주관하는 부서에 따라 이 담당자는 기능적 지식이 풍부한 팀원, 보안 또는 개인정보 보호팀의 직원, 또는 엔터프라이즈 검색과의 통합이 있는 경우 디지털 워크플레이스 책임자가 될 수 있다.

'데이터 프라이버시 위험 방지'는 법무 및 규정 준수 리더가 AI 이니셔티브에 개인정보 보호 설계 원칙을 적용하여 개인정보 위험을 관리하는 것을 의미한다. 따라서 프로젝트 초기에 개인정보 영향 평가를 요구하거나, 시작 단계부터 개인정보 보호 팀원을 지정하여 개인정보 위험을 평가해야 한다.

가트너의 수석 연구 책임자인 로라 콘(Laura Cohn )은 "법무 리더는 다양한 제안이 겹치는 부분을 검토하여 고위 경영진과 이사회가 기업 AI 전략을 개발할 때 규제 변화에 대비할 수 있도록 지원할 수 있다. 많은 관할권의 법률이 2025년까지 시행되지 않을 수 있지만, 법률 리더는 최종 규제가 구체화될 때까지 기다리는 동안 시작할 수 있다"고 밝혔다.

 

⧉ Syndicated to WWW.CIOKOREA.COM

반응형