OpenAI CEO도 모르는 초지능 발현 시점

2달전 Lex Fridman의 팟캐스트와 유튜브를 통해 Open AI의 수장, 샘 알트먼과의 대담 영상을 접했습니다. AI에 대한 이해가 있으시다면 원영상을 보시고 백색나무라는 유튜버분이 해석영상을 올리신 것도 있으니 참고하시면 좋겠습니다. 실제로 ChatGPT라는 서비스를 성공시키고 GPT모델의 개발을 통해 AI 시대에서 최전선에 있는 기업의 CEO도 실제로는 AI가 자각을 하는지 아닌지는 확신할 수 없다는 점이 흥미로웠습니다. 하지만 샘 알트먼은 얼마전 구글에서 나온 AI 3대 석학 중 한 분인 제프리 힌튼처럼 AI에 대한 위험성을 충분히 인지하고 있으며 이를 인간이 핸들링하려면 AGI의 출현을 앞당겨야한다고 말합니다. *AGI(Artificial General Intelligence_인공 일반 지능 흔히 강인공지능(Strong AI)이라고 분류되는 인공지능 중의 하나이다. 샘 알트먼과 OpenAI의 AI 개발 방향성 🟢 AGI의 출현을 앞당기면 초지능을 얻기까지 시간이 길게 걸린다 (Soft Takeoff) 인간 친화적인 AI(Friendly AI)를 만들어갈 수 있다. 🚨 AGI의 출현이 수십년 뒤로 늦어진다면, AGI가 등장하자마자 갑작스럽고 빠르게 초지능을 얻을 가능성이 높아진다. (Hard Takeoff) 이는 인간의 통제를 AI가 벗어날 가능성이 높아지면 인간에 비우호적인 AI(Unfriendly AI)가 될 가능성 존재. 👉🏻 AGI의 출현을 막을 수 없다면, 빠르게 개발하는 것이 인간에게 더 안전하다! 👉🏻 하지만 규제도 필요한건 사실! https://youtu.be/L_Guz73e6fw

Sam Altman: OpenAI CEO on GPT-4, ChatGPT, and the Future of AI | Lex Fridman Podcast #367

www.youtube.com

Sam Altman: OpenAI CEO on GPT-4, ChatGPT, and the Future of AI | Lex Fridman Podcast #367

다음 내용이 궁금하다면?

또는

이미 회원이신가요?

2023년 6월 1일 오전 12:29

 • 

조회 180

댓글 0

    함께 읽은 게시물


    < 당신의 성장을 막는 가장 큰 적, '똑똑함' >

    1. "최고의 경지에 오른 사람의 노하우나 디테일은 말로 설명하기가 어려워요. 어깨너머로만 배울 수 있어요. 그리고 그 작은 차이가 완성도를 판가름하죠.

    ... 더 보기

    지난 주 고등학교 동창 몇몇을 만났을 때였다. 그 중 둘의 얼굴이 매우 어두웠다. 공교롭게도 그 날 직원들이 퇴사하겠다며 사표를 냈다고 했다. 청천벽력인 것 같았다. 자신들의 관리 책임으로 돌아올까 봐 걱정하는 눈치였다.

    ... 더 보기

    [김인수 기자의 사람이니까 경영이다] 좋은 리더도 직원 이직률 낮추진 못해:행복한 퇴사자 만들라 - 매일경제

    매일경제

    [김인수 기자의 사람이니까 경영이다] 좋은 리더도 직원 이직률 낮추진 못해:행복한 퇴사자 만들라 - 매일경제

    < '복잡함'은 게으른 자들의 가장 쉬운 도피처입니다 >

    1. 선택권이 주어졌을 때, 분별 있는 사람이라면 복잡한 길보다 단순한 길을 택할 것이다. ​ ​

    ... 더 보기