[안전한 초지능AI]일리야 수츠케버의 새로운 도전

OpenAI에서 ChatGPT와 GPT-4개발을 주도한 인공지능 전문가로 작년 샘 알트만 축출을 위한 쿠데타 실패(?)로 지난달 회사를 떠났던 일리야 수츠케버가 새로운 회사를 설립했습니다.

작년 쿠데타시의 명분과 동일한 안전한 AI를 만들기 위한 회사입니다.


  • 회사명: Safe Superintelligence Inc.(SSI) (안전한 슈퍼지능 회사)

  • https://ssi.inc/

  • 공동창업자: Ilya Sutskever & Daniel Gross(전 Y Combinator 파트너 &전 애플의 AI 책임자) & Daniel Levy(전 OpenAI 엔지니어)

  • 목표: 안전에 초점을 맞춘 새로운 AI 회사

  • 미션: “우리는 하나의 초점, 하나의 목표, 하나의 제품으로 안전한 초지능을 추구할것이다”

  • 관련

    • 2024.05: OpenAI의 안전팀 해체 및 관련 연구원들 집단 퇴사

    • 연구원들이 퇴사하면서 공통적으로 OpenAI의 안전문제를 언급한 것도 기존 일리야의 쿠데타(?) 주장을 뒷바침하고 있음

Safe Superintelligence Inc.

Ssi

Safe Superintelligence Inc.

다음 내용이 궁금하다면?

또는

이미 회원이신가요?

2024년 6월 20일 오후 1:49

댓글 2