Safe Superintelligence Inc.
Ssi
OpenAI에서 ChatGPT와 GPT-4개발을 주도한 인공지능 전문가로 작년 샘 알트만 축출을 위한 쿠데타 실패(?)로 지난달 회사를 떠났던 일리야 수츠케버가 새로운 회사를 설립했습니다.
작년 쿠데타시의 명분과 동일한 안전한 AI를 만들기 위한 회사입니다.
회사명: Safe Superintelligence Inc.(SSI) (안전한 슈퍼지능 회사)
https://ssi.inc/
공동창업자: Ilya Sutskever & Daniel Gross(전 Y Combinator 파트너 &전 애플의 AI 책임자) & Daniel Levy(전 OpenAI 엔지니어)
목표: 안전에 초점을 맞춘 새로운 AI 회사
미션: “우리는 하나의 초점, 하나의 목표, 하나의 제품으로 안전한 초지능을 추구할것이다”
관련
2024.05: OpenAI의 안전팀 해체 및 관련 연구원들 집단 퇴사
연구원들이 퇴사하면서 공통적으로 OpenAI의 안전문제를 언급한 것도 기존 일리야의 쿠데타(?) 주장을 뒷바침하고 있음
다음 내용이 궁금하다면?
이미 회원이신가요?
2024년 6월 20일 오후 1:49
인간처럼 잘못을 했을 때..남에게 피해를 줄 때..잘못한 것을 느낄 줄 아는..양심?을 지닌..자아성찰 능력을 지닌..그리하여 남에게 피해를 주는 일을 하지 않는..그러한 AI의 개발이나 규제..제도 등도 좋을 것 같습니다.
@허명훈 좋은 의견이십니다. AI윤리나 규제에 그런게 꼭 반영되면 좋을거 같네요. 감사합니다.