[팩플] AI도 통역이 되나요?
Stibee
[ AI도 통역이 되나요? ] AI의 현재 상태를 이해하는데 좋은 글입니다. 전체글을 링크 통해서 꼭 일독하시길 강추합니다. < 목차 > 1) 누구냐 넌? 초대규모 AI 2) 말잘하는 AI, 어디다 써? 3) 프로 한국인 AI 왜 필요해? 4) 한국어 AI, 누가누가 경쟁해? 5) AI 성장 부스터 샷, 클루 6) 자비스는 언제쯤 1) 누구냐 넌? 초대규모 AI 챗봇부터 스피커까지 주변에 대화할 인공지능(AI) 급증. 노래도 틀어주고 길도 알려주고 예약도 받아 준다. 나름 그 동네에서 똑똑하기로 이름 날리던 친구들인데, 문제는 말이 통하진 않는다는 점. 정해진 시나리오를 조금만 벗어나도 “잘 모르겠어요”를 연발한다. 인공지능이라 쓰고 인공 ‘바보’라 읽어도 딱히 반박할 수 없는 수준. 그런데 지난해 오픈AI가 초대규모 AI로 불리는 GPT-3를 선보이며 판이 바뀌었다. ① 뭐가 달라? 초대규모AI, 영화 ‘아이언맨’의 자비스나 ‘Her’의 AI비서와 닮았다. 물론 지금은 그 정도로 유능하진 않지만 말이 통하는가 면에선, 이전 AI들과는 아예 수준이 다르다는 평가. > 만물박사 납시오! : ‘첫 팩스가 전송된 연도’ ‘파이널판타지6의 마지막 보스’ 등 뭘 물어도 척척 답한다. 바둑만 둘 줄 알았던 알파고와 차원이 다르다. > 대화가 되네? : 전 질문에 이어진 맥락있는 후속 질문에 대한 답변도 척척. 다음은 네이버 초대규모AI 하이퍼클로바와의 실제 질문과 답변. Q. 이성계의 업적은? A. 조선을 건국했어. Q. 그거말고 다른 업적은? A. 불교 대신 유교를 채택했어. > 주관식도 척척 : 예시와 지시문을 몇 개 주면 그럴싸한 답을 뽑아내는 이른바 ‘퓨 샷 러닝’(few shot learning) 성능도 우수. 지난해 9월 가디언은 ‘로봇이 이 기사를 썼다. 인간, 아직도 무서운가’라는 제목의 500단어짜리 칼럼을 게재. GPT-3가 ‘인간이 AI로부터 겁을 먹을 필요가 없는 이유’에 대해 썼다. 가디언이 제공한 재료는 ‘스티븐 호킹은 AI가 인류 종말을 초래할 수 있다고 경고했다’ 등 7개 문장. 가디언은 “인간이 쓴 칼럼보다 편집하는 데 든 시간이 짧았다”고 평가했다. ② 어떻게 만들었어? > “야 너두, 사람말 좀 배워라” : 초창기 기계와 소통은 하향식이었다. 규칙을 입력하고 한정된 범위에서 얘기했다. 프로그래밍 언어가 대표적이다. 문제는 보통 사람들이 쓰는 자연어로 AI와 소통하려 하면서부터. 예외도 많고 모호한 자연어로 정보를 주고 받자니, 기존 하향식으론 대화불가. 그래서 AI 교육법을 바꿨다. 사람의 자연어 데이터를 AI에 집어 넣고는 ‘통계적으로 적절한’ 답을 찾게끔 학습시켰다. 인간의 언어를 모방하게 했더니 실력도 일취월장. 때마침 찾아온 빅데이터 시대, AI의 ‘대화력’은 어학연수 온 유학생 마냥 급상승했다. > “바보야, 문제는 파라미터야” : 인간이든 AI든 학습량은 성적을 담보한다. 문제는 가성비. AI를 훈련할 데이터 많을수록 좋지만, 양질의 데이터는 부족하고 가르치는 데 돈도 많이 든다. 그런데 이 불확실성을 GPT-3가 깼다. 파라미터(변수·AI 모델의 성능과 용량을 가늠하는 단위) 수를 전작 GPT-2(15억개) 대비 100배 이상(1750억개) 늘렸더니, 성능이 놀랄만큼 좋아졌다. GPT-3가 공부한 단어는 5000억개. ‘바벨의 도서관’(세상 모든 언어로 된 도서 보유)에서 공부시킨 셈. 이전까지는 마이크로소프트(MS)의 튜링-NLG의 파라미터 수가 170억개로 가장 많았었다. > 무어의 법칙 넘어선 AI 성장 속도: 새로운 성공방정식이 검증되자 빅테크 기업들 너나 할거 없이 파라미터 키우기 경쟁에 돌입했다. MS는 파라미터 수를 5300억개로 늘린 초대규모 AI ‘MT-NLG’를 지난 10월 11일 공개, “AI의 발전 속도가 무어의 법칙(반도체 성능이 18개월마다 배로 증가)보다 빠른 시대”라고 설명했다. 구글도 지난 5월 사람처럼 말하는 AI ‘람다(LaMDA)’를 공개했다. 상세 내용은 하기 링크 클릭 플리즈! ^^
2021년 11월 2일 오전 1:10