Claude 3의 실험 결과들을 보니, 무엇보다 너무 심하게 의인화가 되어서 의식과 자각이 있는 것 처럼 말을 하고 있는게 좀 걱정이 됩니다.


구글의 내부 리서처도 훨씬 못한 LLM을 보고도 미쳐 날뛰(?)었었는데, 보통의 사용자에게는 정말 대단히 부정적인 영향을 끼칠 수도 있다는 생각이 듭니다.


실제로 의식과 자각이 있는거라면 그건 그거대로 😱


그런면에서 OpenAI의 일리야씨의 2016년 메일에 있던, AI가 너무 강력해진다면 악의 무리(?)가 남용하는 것을 방지하기 위해 소스를 오픈하지 않는 방향이 좋겠다는 말이 납득이 갑니다.


그렇게 보니 안전한 AI를 표방하고 있는 Anthropic 이 이런 결과를 내는 AI를 오픈했다는 것이 좀 이해가 안가기도 하네요.

더 많은 콘텐츠를 보고 싶다면?

또는

이미 회원이신가요?

2024년 3월 6일 오후 1:21

조회 1,668

댓글 0

    함께 읽은 게시물

    쉬운 길

    

    ... 더 보기

    바이브 코딩을 여러가지 카테고리에 적용해보고 있는데, 머신러닝쪽은 압도적으로 좋네요. 진짜 코드를 안 봐도 될 정도임.


    심지어 머신러닝 연구 작업 특성상 코드를 안봐도 되니까 실험하는게 겁나 재밌어짐. 미쳤음. GPU 무한대로 준다는 말에 혹한다는 것이 완전 이해가 됨.


    AI들 코딩 스타일이, GPT는 구글같고, Claude는 메타같음. Gemini는 부트캠프..🫢


    그래서 응용레벨 코딩에는 Claude가 낫고, 로우레벨 코딩에는 GPT가 나은 편.


    * 당연하지만 개인적인 느낌일 뿐 입니다.