AI의 실존적 위험에 집중하던 오픈AI 팀 전체가 사임했거나 회사 내 다른 연구 그룹으로 흡수된 것으로 전해졌습니다.
오픈AI의 수석 과학자이자 공동 창립자인 일야 수츠케버가 사임을 발표한 며칠 후, 전 딥마인드 연구원이자 오픈AI의 슈퍼얼라인먼트 팀 공동 책임자였던 얀 라이케가 X에 자신도 사임했다고 게시했습니다.
라이케는 회사가 AI 안전보다 제품 개발에 더 집중하고 있다고 생각하여 우선순위에 대한 걱정으로 회사를 떠났다고 밝혔습니다.

라이케는 X 게시물 시리즈에서 OpenAI 리더십이 핵심 우선순위 선택에서 잘못되었다고 지적했으며, 인공 일반 지능(AGI) 개발이 진행됨에 따라 안전과 준비를 강조해야 한다고 주장했습니다.
AGI는 가상의 인공 지능을 지칭하며, 다양한 작업에서 인간과 동등하거나 그보다 뛰어난 성과를 달성할 수 있는 능력을 의미합니다.
오픈AI에서 3년을 보낸 후, 라이케는 회사가 화려한 제품 개발을 우선시하면서 견고한 AI 안전 문화와 절차를 육성하는 데 소홀했다고 비판했습니다. 그는 자원 할당이 긴급하다며 특히 팀의 중요한 안전 연구를 지원하기 위해 - 컴퓨팅 파워-를 강조했습니다.
"OpenAI 리더십과 회사의 핵심 우선순위에 대한 의견이 상당한 기간 동안 계속 충돌했고, 마침내 한계에 다다랐습니다. 지난 몇 달 동안, 우리 팀은 역풍을 맞서왔습니다."2023년 7월, OpenAI는 창조자를 앞지르고 압도할 수 있는 고급 AI의 출현에 대비하여 새로운 연구 팀을 구성했습니다. 써츠케버는 이 새로운 팀의 공동 리더로 지명되었으며, 이 팀은 OpenAI의 컴퓨팅 자원의 20%를 할당받았습니다.
관련: OpenAI 데이터 공유 협정 이후 Reddit 주가 급등Following the recent resignations, OpenAI has opted to dissolve the “Superalignment” team and integrate its functions into other research projects within the organization. This decision is reportedly a consequence of the ongoing internal restructuring, which was initiated in response to the governance crisis of November 2023.
최근에 발생한 사임 사건을 계기로 OpenAI는 "슈퍼 얼라인먼트" 팀을 해체하고 해당 기능을 조직 내 다른 연구 프로젝트에 통합하기로 결정했습니다. 이 결정은 2023년 11월의 거버넌스 위기에 대응하여 시작된 내부 구조 조정의 일환으로 알려졌습니다.
스츠케버는 2023년 11월 OpenAI 이사회가 CEO로부터 샘 알트만을 잠시 내보내는 데 성공한 노력의 일부였으며, 그 후 직원들의 반발로 인해 그 역할로 재고용되었습니다.
The Information에 따르면, 스츠케버는 직원들에게 이사회가 알트만을 해임한 결정이 OpenAI가 모든 인류에게 이익을 주는 AGI를 개발하는 책임을 이행했다고 전했습니다. 여섯 명의 이사회 구성원 중 하나로서, 스츠케버는 OpenAI의 목표를 공공 이익과 조화시키기 위한 이사회의 헌신을 강조했습니다.