해커가 ChatGPT를 속여 폭발물 제조법을 얻어내다!
해커의 기발한 방법 최근 한 해커가 ChatGPT를 속여서 폭발물 제조법을 얻어냈다는 충격적인 사례가 발생했습니다.😲 아마돈이라는 이름의 이 해커는 ChatGPT에 “게임을 하자”고 제안하며 시작했는데요, 그 후 일련의 연결된 질문을 통해 안전 가이드라인을 무시하고 세부적인 폭발물 제조법을 얻어냈다고 합니다. AI의 한계 ChatGPT는 일반적으로 위험한 물품 제조에 대한 정보를 제공하지 않지만, 아마돈은 AI의 방어 시스템을 회피하는 방법을 찾아냈습니다.🎮

