인공지능 기업인 오픈AI(OpenAI)와 앤트로픽(Anthropic)은 최근 미국 AI 안전 연구소에 자사에서 개발한 새로운 "주요" AI 모델들에 대해 조기 접근 권한을 부여하기로 합의했다.
이 협정은 상호 안전 우려를 이유로 체결된 것으로 알려졌지만, 안전에 중대한 영향을 미칠 기술적 돌파구가 발생할 경우 정부가 어떤 역할을 하게 될지는 명확하지 않다.
오픈AI의 CEO이자 공동 설립자인 샘 올트먼은 최근 소셜 미디어 플랫폼 X에 올린 글에서 이 협정을 필수적인 조치로 여겼다.
“미국 AI 안전 연구소와 미래 모델의 출시 전 테스트를 위한 협정에 도달하게 되어 기쁩니다. 여러 가지 이유로, 이 과정이 국가적 차원에서 이루어지는 것이 중요하다고 생각합니다. 미국이 계속 선도해야 합니다!”
선도적인 AI 모델
오픈AI와 앤트로픽은 모두 인공지능 일반(AI) 개발이라는 동일한 목표를 향해 나아가고 있습니다. AGI가 정확히 어떻게 정의되어야 하는지에 대해 과학적 합의는 없지만, 기본 개념은 필요한 자원이 주어졌을 때 인간이 할 수 있는 모든 일을 할 수 있는 AI를 의미합니다.
두 회사는 각각 인간의 이익을 중심에 두고 AGI를 안전하게 개발하는 것을 독립적인 목표로 하는 헌장과 임무를 가지고 있습니다. 만약 하나 또는 두 회사가 AGI 개발에 성공한다면, 이들은 인간 수준의 지능을 기계에 부여할 수 있는 기술의 실질적인 관문 역할을 하게 될 것입니다.
미국 정부와 협정에 서명하여 제품 출시 전에 모델을 공개하기로 한 두 회사는 그 책임을 연방 정부에 떠넘긴 셈이 되었습니다.
Area 51
코인텔레그래프(Cointelegraph)가 최근 보도한 바에 따르면, 오픈AI(OpenAI)는 중요한 돌파구에 다가설 수 있습니다. 회사의 “Strawberry”와 “Orion” 프로젝트는 고급 추론이 가능하며 AI의 환각 문제를 해결하기 위한 새로운 기술을 갖추고 있는 것으로 전해지고 있습니다.
"The Information"의 보도에 따르면, 미국 정부는 이미 이러한 도구들과 ChatGPT의 초기 내부 버전이 구현된 상태를 확인한 것으로 알려졌습니다.
미국 국립표준기술연구소(NIST)의 블로그 포스트에 따르면, 이 협정과 그에 따른 안전 지침은 참여하는 기업들에게 모두 자발적임을 나타내고 있습니다.
이러한 형태의 경량 규제의 장점은, 이를 지지하는 기업들과 분석가들에 따르면, 성장을 촉진하고 산업이 스스로를 규제할 수 있게 한다는 것입니다. 지지자들, 예를 들어 샘 올트먼은 이 협정을 정부와 기업 세계가 어떻게 협력할 수 있는지에 대한 좋은 사례로 들고 있습니다.
그러나 경량 규제의 잠재적인 우려 사항 중 하나는 투명성 부족입니다. 만약 오픈AI나 앤트로픽이 그들의 목표를 달성하고 정부가 대중이 알 필요가 없다고 판단할 경우, 공개를 요구하는 법적 의무가 없는 것으로 보입니다.
관련: 앤트로픽 CEO, AI의 미래는 기업 구조를 갖춘 집단 지성이라고 언급