본문 바로가기
반응형

일리야 수츠케버2

149. 일리야 수츠케버의 SSI: 안전한 초지능의 새로운 길 01. 서론 1) 일리야 수츠케버의 새로운 도전 일리야 수츠케버는 인공지능(AI) 분야에서 가장 주목받는 인물 중 한 명입니다. 그는 2015년 샘 올트먼, 일론 머스크 등과 함께 오픈AI를 공동 설립하였으며, 챗GPT와 같은 혁신적인 AI 모델을 개발하는 데 핵심적인 역할을 했습니다. 수츠케버는 오픈AI에서 수석과학자로 일하며 AI의 발전에 기여했지만, 최근 새로운 도전을 시작했습니다. 그는 오픈AI를 떠나 안전한 초지능(Safe Superintelligence, SSI) 구축을 목표로 하는 새로운 스타트업을 설립했습니다. 이 새로운 도전은 단순한 AI 개발을 넘어, AI의 안전성과 윤리성을 최우선으로 고려한 접근 방식을 취하고 있습니다. 수츠케버는 AI가 인류에 해를 끼치지 않도록 하기 위해 지속적인.. 2024. 6. 24.
119. OpenAI의 안전 기술 개발 부서 'Superalignment'의 해체 01. 서론 1) OpenAI의 AGI 대비 안전 기술 개발 부서 'Superalignment' 팀OpenAI는 인공지능(AI) 연구와 개발의 선두주자로서, 챗GPT와 같은 혁신적인 제품을 통해 큰 주목을 받고 있습니다. AI 기술의 급격한 발전은 많은 가능성을 열어주지만, 동시에 그에 따른 위험성도 높아지고 있습니다. 이러한 위험성 중 하나는 일반인공지능(AGI)의 출현입니다. AGI는 특정 작업에 한정되지 않고, 인간과 비슷하거나 그 이상의 지능을 가진 인공지능을 의미합니다. AGI의 출현은 큰 변화를 가져올 수 있지만, 그 잠재적 위험을 관리하는 것도 필수적입니다. 이를 위해 OpenAI는 AGI의 안전성을 확보하고, 그 위험을 최소화하기 위한 목적으로 'Superalignment' 팀을 신설했습니.. 2024. 5. 22.
반응형

TOP

Designed by 티스토리