FEBRUARY 2026 Vol.251

REPORT ③

AI 경쟁, 이젠 성능 넘어
안전·신뢰성이
핵심 화두

글. 권헌영
사진. CTA

지난 기사

인공지능(AI)이 산업과 사회 전반으로 확산되면서 ‘AI는 얼마나 똑똑한가’에서 ‘AI는 얼마나 신뢰할 수 있는가’로 기술 경쟁의 기준이 재편되고 있다. CES 2026은 성능 중심의 전시가 아니라 각국이 AI 안전과 책임, 거버넌스를 어떤 방식으로 국가 전략에 반영하고 있는지를 드러낸 자리였다. 주요국의 AI 접근 방식을 통해 AI 경쟁의 새로운 축과 그 의미를 살펴본다.

기술 경쟁에서 신뢰 경쟁으로

CES는 이제 신기술을 나열하는 공간이 아니다. 기술이 사회와 맺는 관계를 점검하는 장으로 기능하고 있다. CES 2026은 AI가 산업과 사회 전반의 핵심 인프라로 자리 잡은 이후 각국과 글로벌 기업이 어떤 기준과 철학 아래 AI를 개발하고 활용하고 있는지를 보여주는 상징적인 공간이었다. 특히 이번 CES에서는 연산 성능이나 모델 규모보다 AI의 안전성·책임성·신뢰성이 핵심 화두로 부상했다.
최근 AI 논의의 중심은 ‘더 뛰어난 AI’가 아니라 ‘문제가 발생했을 때 통제 가능한 AI’, ‘사회가 신뢰할 수 있는 AI’로 이동하고 있다.1) 대규모 언어 모델과 자율 시스템이 빠르게 확산하면서 오작동, 편향, 책임 소재 불명확성 같은 문제가 현실적인 리스크로 나타났기 때문이다. 이에 따라 AI 안전과 책임 확보는 기술의 부가 요소가 아니라 시장 진입과 확산을 좌우하는 전제 조건이 되고 있다.





미국·유럽·중국,
AI 거버넌스를 대하는 서로 다른 방식

CES 2026에서 드러난 미국의 AI 전략은 혁신과 규범 사이의 균형에 초점이 맞춰져 있다. 미국은 여전히 민간 주도의 기술 혁신과 시장 경쟁을 중시하지만 동시에 고위험 AI 영역에서는 안전 가이드라인과 책임 구조를 요구하는 방향으로 접근하고 있다.2) 기술 자율성을 유지하면서도 사회적 신뢰를 확보하려는 현실적인 선택으로 해석된다.
유럽은 규범과 제도를 중심에 둔 접근을 분명히 하고 있다.3) CES 현장에서 유럽의 메시지는 화려한 기술 시연보다 AI의 투명성, 설명 가능성, 기본권 보호에 집중돼 있었다. 유럽은 AI 안전과 책임을 법·제도 차원에서 선제적으로 정립함으로써 글로벌 시장에서 통용되는 기준을 설정하려는 전략을 일관되게 추진하고 있다. 이는 단기 기술 경쟁보다는 장기적인 질서 설계를 통한 영향력 확보에 가깝다.
중국은 국가 전략과 결합한 AI 활용을 강하게 드러냈다. 제조·물류·도시 관리 등 대규모 실증 사례를 통해 AI를 경제 성장과 국가 운영 효율성의 핵심 수단으로 활용하고자 한다.4) 이러한 접근은 빠른 확산과 실용성이라는 장점을 가지는 동시에 통제 중심 구조로 인해 국제적 신뢰와 규범 정합성 측면에서 과제를 안고 있음을 보여준다.

이처럼 CES 2026은 AI 기술 경쟁 이면에서 각국이 AI 안전과 거버넌스를 어떻게 정의하고 있는지를 비교할 수 있는 장이었다. AI는 이제 기술 성능만으로 평가되지 않는다. 어떤 기준으로 관리되고, 어떤 책임 구조를 갖추고 있으며, 사회적 신뢰를 어떻게 확보하는지가 국가 경쟁력의 중요한 요소로 작동하고 있다.
이러한 변화는 대기업뿐 아니라 중소기업에도 직접적인 영향을 미친다. AI를 도입하는 것보다 어떤 규범과 환경 속에서 AI를 활용할 것인지에 대한 전략적 판단이 더욱 중요해지고 있다. 국가 차원의 AI 거버넌스 방향은 곧 기업의 투자 환경과 경쟁 조건으로 이어지기 때문이다.

CES 2026에는 LG, 듀셀 등 국내 853개의 한국 기업이 참가했다.
한국은 미국과 중국에 이어 참가 기업 수 3위를 차지했으며, 한국관에는 470개 이상의 기업이 모여 역대 최대 규모를 기록했다.





한국의 과제와 AI 안전 연구의 역할

한국 역시 중요한 선택의 시점에 서 있다. 기술 역량은 글로벌 수준에 근접해 있지만 AI 안전과 책임, 신뢰 확보를 위한 체계적인 연구와 제도 설계는 지속적인 보완이 필요하다. 이러한 문제의식 속에서 고려대학교 정보보호연구원 산하 인공지능안전연구센터는 AI의 기술적 안전성 평가와 함께 법·제도·정책 연구를 연계하는 역할을 하고 있다. 이는 AI를 단순한 산업 기술이 아니라 사회적 시스템으로 관리하려는 학계와 정책 연구의 하나의 사례라 할 수 있다.
CES 2026이 보여준 메시지는 분명하다. AI 경쟁은 성능을 넘어 안전과 책임, 신뢰를 누가 더 설득력 있게 구현하느냐의 문제로 이동하고 있다. 이러한 흐름 속에서 국가 전략의 차이는 곧 기업 경쟁력의 차이로 이어질 가능성이 크다. CES는 이제 기술 박람회를 넘어 AI 시대 국가 경제와 산업 전략의 방향을 가늠하는 지표로 기능하고 있다.
특히 국내 AI 정책은 기술 개발 속도에 비해 위험 관리와 사후 책임 체계에 대한 논의가 상대적으로 뒤처져 왔다는 한계를 안고 있다. AI 안전 연구는 이러한 공백을 메우며 기술 혁신이 사회적 신뢰 위에서 지속될 수 있도록 하는 기반 역할을 한다. 단기적인 규제 도입이나 선언적 원칙에 그치지 않고 실제 산업 현장에서 작동할 수 있는 안전 기준과 평가 체계를 축적하는 것이 무엇보다 중요하다.
또한 AI 안전 연구는 정부와 기업, 시민 사회를 연결하는 중간 지점으로 기능할 수 있다. 기술적 전문성과 정책적 판단을 동시에 요구하는 AI 거버넌스 영역에서 연구 기반의 객관적 분석과 실증 결과는 사회적 합의를 이끄는 핵심 자산이 된다. 한국이 글로벌 AI 경쟁에서 신뢰받는 파트너로 자리잡으려면 이러한 연구 생태계를 전략적으로 육성할 필요가 있다.

Profile. 권헌영

- 고려대학교 정보보호대학원 교수
- 고려대학교 정보보호연구원 인공지능안전연구센터장