본문 바로가기
반응형

AI 보안5

374. AI 모델의 보안 강화: Universal Jailbreaks 방어 전략 AI 모델의 보안 강화: Universal Jailbreaks 방어 전략 01. 서론AI 기술이 발전함에 따라, 대규모 언어 모델(LLM)들은 안전하고 신뢰할 수 있는 방식으로 동작해야 한다는 요구가 커지고 있습니다. 특히, Jailbreaking(보안 우회 공격)은 AI 모델이 의도치 않게 위험한 정보를 생성하도록 유도하는 기법으로, 지속적인 보안 위협이 되고 있습니다. 최근 Anthropic의 연구에서는 "Constitutional Classifiers"라는 새로운 방어 시스템을 통해 Universal Jailbreaks(보편적 보안 우회 공격)를 차단하는 방법이 제안되었습니다. 본 글에서는 Universal Jailbreaks란 무엇인지, 이를 방어하기 위한 Constitutional Classif.. 2025. 2. 14.
248. 국정감사에서 ChatGPT 활용 논란: AI의 가능성과 보안 우려 국정감사에서 ChatGPT 활용 논란: AI의 가능성과 보안 우려 01. 서론1) ChatGPT의 국정감사 도입 배경2024년 국정감사에서 국민의힘은 ChatGPT를 도입하여 국회 업무에 활용하는 방안을 발표했습니다. 이는 ChatGPT와 같은 인공지능(AI) 기술이 정책 분석, 정보 수집 및 질문 작성과 같은 업무에서 어떻게 기여할 수 있는지를 시험하기 위한 목적이 있었습니다. 특히, AI가 제공하는 효율성과 정보 처리 능력 덕분에 복잡한 정책 자료를 빠르게 분석하고 요약할 수 있다는 점에서 주목을 받았습니다. 국민의힘은 AI가 전 세계적으로 다양한 분야에서 효율성을 증대시키고 있는 만큼, 정치와 행정 분야에서도 적극적으로 도입될 필요가 있다고 주장했습니다. 이 배경에는 정치적 업무의 디지털화와 AI .. 2024. 10. 12.
162. 오픈AI 해킹 사건: AI 보안의 중요성과 대응 필요성 오픈AI 해킹 사건: AI 보안의 중요성과 대응 방안 1. 서론1.1 오픈AI 해킹 사건 개요2022년 초, 인공지능 연구 및 개발 분야에서 선도적인 위치를 차지하고 있는 오픈AI(OpenAI)의 내부 메신저 시스템이 해킹당하는 사건이 발생했습니다. 해커는 오픈AI의 사내 메신저에 침투하여 직원들이 AI 최신 기술에 대해 토론하는 대화방에 접근, 대화 내용을 빼내갔습니다. 이 사건은 오픈AI 내부 회의에서만 공유되었으며, 대외적으로는 공개되지 않았습니다. 해커는 오픈AI의 AI 모델 시스템이나 주요 데이터베이스에는 접근하지 못했으나, 민감한 기술 정보가 유출되었다는 점에서 큰 파장을 일으켰습니다. 해킹 사건 발생 이후 오픈AI는 고객이나 협력업체의 정보는 도난당하지 않았다고 밝혔으나, AI 기술 유출에 .. 2024. 7. 9.
106. OpenAI가 제시하는 고급 AI 보안 인프라 00. 서론 1) AI 기술의 발전과 그로 인한 보안 필요성인공지능(AI) 기술의 급속한 발전은 사회의 다양한 분야에서 혁신을 가져오고 있습니다. 의료, 금융, 교육, 제조업 등 거의 모든 산업이 AI의 영향을 받으며, 이로 인해 생산성이 향상되고, 새로운 서비스가 생성되며, 사용자 경험이 개선되고 있습니다. 하지만 이러한 기술적 진보는 동시에 데이터 보안과 개인 정보 보호에 대한 새로운 도전을 제기합니다. AI 시스템이 처리하는 민감한 정보의 양이 증가함에 따라, 이러한 시스템을 보호하는 것이 점점 더 중요해지고 있습니다. 사이버 공격의 복잡성이 증가함에 따라, 전통적인 보안 방식만으로는 충분하지 않게 되었습니다. 특히, AI는 고도의 데이터 처리 능력을 바탕으로 작동하기 때문에, 이를 타깃으로 한 공.. 2024. 5. 9.
반응형

TOP

Designed by 티스토리