AI 규제와 관련 법안이 증가하고 있습니다. 2024년, 미국 백악관 예산관리국은 정부의 AI 활용에 대해 모든 연방 기관과 부서에 메모랜덤 24-10을 발표했습니다. 이 메모랜덤의 세 가지 주요 초점은 다음과 같습니다.
AI 거버넌스 강화
책임 있는 AI 혁신 촉진
AI 사용으로 인한 위험 관리
주 정부 차원에서도 AI 사용 및 오용에 대한 우려를 다루기 위한 유사한 노력이 이어졌습니다. 2023년에는 25개 주에서 AI의 일부 측면에 관한 법안을 제출했습니다. 그 결과, 18개 주와 푸에르토리코에서 성공적으로 법률이 제정되었습니다. 일부 법안은 AI 사용에 대한 초기 연구 또는 평가에 초점을 맞추는 반면, 다른 법안은 AI를 사용하는 직원에 대한 규제나 악의적 사용 또는 의도하지 않은 결과를 완화하기 위한 통제를 시행하려는 목표를 가지고 있습니다.
최근 입법은 정부 내 AI 사용의 위험성을 강조하며, 정부 기관과 기타 공공 부문 조직에 몇 가지 도전 과제를 제시하고 있습니다. 이러한 조직은 공공 자산을 위협으로부터 보호하고 AI를 적절히 활용할 수 있도록 제어 장치를 마련해야 할 필요가 있습니다.
이 법안의 물결로 인해 새롭게 부각된 우려 중 하나는 섀도우 AI의 부상입니다. 섀도우 AI는 직원이나 부서가 감독 없이 승인되지 않은 상태로 공개 AI 도구 및 모델을 사용하는 것을 의미합니다. 이전의 "섀도우 IT"처럼, 섀도우 AI는 거버넌스 및 데이터 유출 위험을 초래하며, 이러한 위험 역시 규제를 통해 점차 해결할 대상입니다.
AI 기반 크롤러는 정부 기관 및 기타 공공 부문 조직에 합법적이고 유익한 용도로 사용될 수 있습니다. 경우에 따라, 책임감 있는 크롤러와 인덱서는 공개 데이터에 접근하여 시민들이 관련 온라인 서비스와 정보를 더 쉽게 찾을 수 있도록 지원할 수 있습니다.
반면, 제대로 개발되지 않았거나 악의적인 AI 크롤러는 콘텐츠의 프라이버시를 고려하지 않고 콘텐츠를 스크래핑하여 공개 AI 플랫폼의 학습 데이터로 활용할 수 있습니다. 이 데이터가 모델 학습에 사용된다면 수많은 지적 재산권 및 개인정보 보호 문제가 발생할 수 있습니다. 또한 이러한 봇을 방치하면, 모든 사용자의 정상적인 상호작용으로부터 나오는 리소스를 과도하게 소모하여 공개 웹 사이트의 성능에 악영향을 미칠 수 있습니다.
기관은 서버 또는 애플리케이션 측에서 몇 가지 보호 조치를 시행하여 봇이 서버와 상호작용하는 방식을 제어할 수 있습니다. 예를 들어 robots.txt 파일을 배포할 수 있습니다. 이 파일은 크롤러 트래픽이 사이트 및 데이터의 다양한 섹션과 상호작용하는 방식을 알리고 정의하는 역할을 합니다. 이 파일은 사이트의 루트에 배포되고 사이트를 크롤링할 수 있는 에이전트(봇)와 액세스할 수 있는 리소스를 정의합니다.
하지만, 이 접근 방식에는 몇 가지 문제가 있습니다. 첫째, 크롤러가 robots.txt 파일을 존중해야 합니다. 이는 ‘존중받는’ 봇에 대한 일반적인 모범 사례이지만, 모든 봇이 규칙을 따르는 것은 아닙니다. 악의적이지 않은 봇이라 하더라도 구문을 잘못 해석하여 기관이 숨기고자 하는 요소와 상호작용할 가능성이 있습니다.
결론적으로, robots.txt 또는 유사한 .htaccess(Apache) 전략을 활용하는 것은 완벽한 보호책이 아닙니다. 하지만 이는 합법적인 봇이 애플리케이션 콘텐츠와 상호작용하는 방식을 관리하기 위한 전체적인 접근 방식의 일부가 될 수 있습니다.
웹 애플리케이션 방화벽(WAF)과 봇 완화 솔루션은 오늘날 공개 웹 애플리케이션을 보호하는 데 필수적입니다. 이러한 제어 기능을 통해 조직은 분산 서비스 거부(DDoS) 위협, 섀도우 및 안전하지 않은 API와 기타 다양한 봇 관련 위협으로부터 공개 디지털 자산을 보호할 수 있습니다.
현대의 모든 봇 완화 솔루션은 AI 데이터 학습을 목적으로 콘텐츠를 스크래핑하는 봇을 프로그래밍 방식으로 식별하고 분류할 수 있는 기능을 포함해야 합니다. 이 분류 메커니즘은 매우 중요한 기능입니다. 이를 통해 합법적이고 검증된 AI 크롤러를 허용하거나, 기관이 해당 봇의 웹사이트와 상호작용하도록 허용하는 방식을 결정할 때까지 완전히 차단할 수도 있습니다.
확장 가능한 솔루션을 선택하는 것도 핵심입니다. 2023년, UN 사무총장 António Guterres는 인쇄된 책이 유럽 전역에 보급되기까지 50년 이상이 걸렸지만, “ChatGPT는 단 2개월 만에 1억 명의 사용자를 달성했다”고 말했습니다. AI 플랫폼의 규모와 전례 없는 성장은 공개적으로 노출된 데이터 세트를 학습 목적으로 검색하는 AI 봇의 수가 증가하는 것과 직결됩니다. 이러한 플랫폼의 아키텍처는 분산된 글로벌 환경에서 확장할 수 있어야 합니다.
공개 AI 플랫폼을 통해 사용자는 메모 작성부터 복잡한 코드 생성에 이르기까지 작업의 속도를 높일 수 있습니다. 정부, 주 및 연방 기관은 AI를 활용 하여 의료 문제, 시민 서비스 접근성, 식수 및 식품 안전과 같은 복잡한 사회적 문제를 해결할 가능성에 주목하고 있습니다. 그러나 거버넌스가 부재한 상태에서 조직은 규제된 데이터 세트를 안전하지 않은 공공 언어 모델 학습 데이터로 유출하는 데 연루될 가능성이 있습니다.
조직에서 도구를 활용하여 승인되지 않은 클라우드 애플리케이션(“섀도우 IT”)의 사용을 조절했던 것과 마찬가지로, 이제는 조직 내에서 섀도우 AI를 사용하는 범위를 이해해야 합니다. 섀도우 AI의 증가가 화제가 되고 있습니다. 47개국에서 32,000명 이상의 직원을 대상으로 한 The Conversation의 글로벌 연구에 따르면, 근로자의 약 70%가 고용주가 제공하는 솔루션보다 무료 공개 AI 도구를 선호합니다. 놀랍게도 거의 절반이 민감한 회사 또는 고객 데이터를 공개 생성형 AI 플랫폼에 업로드한 것을 인정했으며, 44%는 직장에서 조직의 정책을 위반하는 방식으로 AI를 사용했다고 인정했습니다.
이러한 중요한 데이터는 AI 모델 간에 의도치 않게 공유될 수도 있습니다. AI 모델은 점점 더 기존의 데이터 출처 대신 다른 모델이 생성한 데이터를 기반으로 학습되는 경향을 보이고 있습니다.