적대적 공격 (Adversarial Attack)
자율 주행에서의 사례

LLM에서의 사례

프롬프트 보안 및 해킹
프롬프트 주입 (Prompt Injection) 개념 설명 및 사례

프롬프트 유출 (Prompt Leaking) 개념 설명 및 사례

탈옥 (Jailbreaking) 개념 설명 및 사례
공격 수단 (Offensive Measures)
방어 조치 및 전략 (Defensive Measures & Tactics)
보안 관련 컨플루언스 글 소개 (from. 선행개발팀 이창희) https://midastech.atlassian.net/wiki/spaces/MLTEAM/pages/63930369/How+to+prevent+attacks+on+LLMs
4주차 pulse survey
사진

