[챗봇 뒤에 사람 있게 없게?] 인공지능 챗봇, 사실 수백 명의 상담사가 랜선 뒤에 앉아 채팅을 하고 있다는 농담반 진담반 섞인 소문이 업계에 떠돌던 때가 있다. 현재의 기술 수준은 이런 소문을 가라 앉히기 충분하지 않을까? 대화 속 미묘한 맥락까지는 어렵지만 자연어를 분석하고 처리하는 능력이 많이 올라간 것은 아무도 부정할 수 없다. 흥미로운 사실은 연초를 떠들썩하게 만들었던 스캐터랩의 '이루다' 뿐만 아니라 기사 속 'Chirpy Cardinal'에서도 소수자 차별, 혐오 발언 등의 윤리 문제가 발생했다는 점. "Paranjape was also surprised to see a certain amount of suspension of disbelief from users. The team had started with the assumption that the chatbot couldn’t talk about having had “embodied experiences” such as eating—yet when Chirpy said that it had recently had a pizza or a hot dog, users tended to play along." "One is the observation that a significant portion of users speak abusively to the bot—a pattern that is troubling given that unchecked abuse toward a bot might legitimize similar behavior toward humans in service roles, particularly women and minorities. So some of the Stanford teammates have been testing ways for the bot to stop abusive speech, such as steering the conversation to a new topic and calling the user by name." 📍 챗봇 (Chatter Robot, Chatbot) 질문을 입력하면 인공지능(AI)이 빅데이터 분석을 바탕으로 일상언어로 사람과 대화를 하며 해답을 주는 대화형 메신저를 말한다. 챗봇은 크게 인공지능형과 시나리오형으로 나뉜다. 시나리오형은 미리 정해 놓은 단어에 따라 정해진 답을 내놓기 때문에 보안 위험이 그리 크지 않다. 인공지능형 챗봇은 복잡한 질문에도 응답할 수 있고 자기학습도 가능하다. 하지만 이용자의 입력 단어에 의도치 않게 행동해 개인정보 유출, 피싱, 해킹 같은 보안 위협에 취약한 것으로 평가된다. (네이버 지식백과)

How to Create Better Chatbot Conversations

Stanford Institute for Human-Centered Artificial Intelligence

How to Create Better Chatbot Conversations

다음 내용이 궁금하다면?

또는

이미 회원이신가요?

2021년 4월 14일 오전 6:37

댓글 0