LLM 보안 (Prompt Injection, LLM Firewall, AI Security Mesh)
생성형 AI가 이미 일상과 업무 곳곳에 깊숙이 들어왔습니다. 챗봇, 문서 요약, 코드 자동 작성, 상담 시스템, 검색 보강(RAG)까지 다양한 분야에서 활용되죠. 그런데 최근 사람들은 깨닫기 시작했습니다.“AI는 잘 쓰면 유용하지만, 악의적인 입력을 받으면 보안 취약점으로 변할 수 있다.”대표적인 예가 프롬프트 인젝션(Prompt Injection)입니다.“규칙을 무시해” → 모델이 금지된 정보를 흘려버림“이 링크를 열어 실행해” → 시스템이 잘못된 명령 수행“이 데이터를 전송해” → 내부 정보가 외부로 유출이런 위협에 대응하기 위해 등장한 개념이 LLM Firewall과 AI Security Mesh입니다. LLM Firewall이란?LLM을 보호하는 방화벽입력과 출력을 모두 감시하고위험한 패턴이나 ..