GitHub - corca-ai/awesome-llm-security: A curation of awesome tools, documents and projects about LLM Security.
GitHub
Jailbreaking, Prompt Injection. LLM을 활용하시는 분들이라면 한번쯤은 당연히 들어보았을 공격인데요. LLM으로부터 나쁜 응답을 끌어내거나 System Prompt를 유출하려는 공격이 계속해서 일어나고 있습니다. LLM Security라는 분야는 계속해서 각광을 받고 있으며, OpenAI, Anthropic처럼 LLM을 잘하는 기업들은 꾸준히 AI Safety의 발전을 위해 노력하고 있다고 합니다.
저 또한 LLM Security 분야에 관심이 많아서 꾸준히 논문을 읽으면서 리스트업을 했었는데요. 이 어썸레포가 LLM Security 관련 리서치하시는데 도움이 되면 좋겠습니다. 그리고 이번에 레포를 전면 개편을 하려고 하는데 많은 코멘트 주시면 감사하겠습니다. '논문을 이러이런 식으로 정리해봐라.' '논문만 너무 많은 것 같다.' '논문마다 중요한 내용들 요약 좀 해달라.' 등등 코멘트들 언제나 환영입니다. ^ㅁ^
https://github.com/corca-ai/awesome-llm-security
다음 내용이 궁금하다면?
이미 회원이신가요?
2024년 4월 2일 오전 7:30