글로벌 AI 경쟁 구도: 스타게이트·딥시크·EU AI Act의 충돌
2025년 이후 전 세계 AI 경쟁은 미국·중국·유럽 3극 구도로 재편되고 있습니다. 미국은 민관 합동 5,000억 달러 규모의 스타게이트(Stargate) 프로젝트로 AI 인프라 패권을 공고히 하려 하고, 중국은 딥시크(DeepSeek) R1·V3 모델로 훨씬 낮은 비용에 미국 수준의 성능을 구현하며 "AI 민주화"를 선언했습니다. 유럽은 EU AI Act(인공지능법)를 2025년 2월부터 단계적으로 시행하며 고위험 AI 규제 프레임워크를 전 세계 표준으로 만들려 합니다.
이 세 가지 흐름은 한국 공공기관 AI 정책에 직접적인 파급 효과를 미칩니다. 기획재정부는 새정부 출범 이후 "공공기관 AI 활용 정책방향"을 발표하며, 글로벌 AI 경쟁 환경 속에서 한국 공공기관이 AI를 어떻게 도입하고, 어떻게 안전하게 관리할 것인지를 구체적으로 제시했습니다. KOTRA, 코트라, 무역보험공사 등 무역·투자 관련 공공기관들이 이 정책방향의 직접적인 적용 대상이며, AI 기반 무역 지원 인프라 확충 전략 전반에 영향을 줍니다.
미국 스타게이트 프로젝트: AI 인프라 패권 전쟁의 서막
2025년 1월 트럼프 대통령은 오픈AI, 소프트뱅크, 오라클이 공동 참여하는 "스타게이트(Stargate)" 프로젝트를 발표했습니다. 4년간 최대 5,000억 달러를 투자하여 미국 전역에 AI 데이터센터와 슈퍼컴퓨팅 인프라를 구축하는 프로젝트입니다. 첫 단계로 텍사스 아빌린에 엔비디아 GB200 칩 기반 데이터센터 10개를 2026년까지 완공하는 계획이 진행 중입니다.
스타게이트는 단순한 민간 투자를 넘어 미국 정부의 AI 패권 전략과 직결됩니다. 오픈AI, 앤트로픽, 마이크로소프트 등 미국 AI 기업들이 글로벌 AI 서비스의 기반 인프라를 장악하면, 전 세계 공공기관과 기업이 미국 클라우드·AI 서비스에 의존하는 구조가 심화됩니다. 한국 공공기관도 마찬가지입니다. 기재부는 이 종속성을 줄이면서도 최첨단 AI 성능을 활용하는 균형점을 찾는 것이 공공기관 AI 정책의 핵심 과제 중 하나임을 명시하고 있습니다.
중국 딥시크 충격: 저비용 고성능 AI의 공공기관 도입 함의
2025년 1월 중국 딥시크(DeepSeek)가 공개한 R1 모델은 전 세계 AI 업계에 충격을 주었습니다. 오픈AI의 o1 모델에 필적하는 추론 성능을 단 600만 달러의 훈련 비용으로 달성했다는 주장과 함께, 모델 가중치를 오픈소스로 공개하여 누구나 자유롭게 활용할 수 있도록 했습니다. V3 모델은 코딩, 수학, 자연어 이해에서 GPT-4o를 상회하는 벤치마크 결과를 내놓으며 "AI 비용의 민주화"가 현실화되는 전환점을 만들었습니다.
딥시크는 한국 공공기관 AI 정책에 양면적 의미를 가집니다. 긍정적 측면에서는 오픈소스 기반의 딥시크 모델을 온프레미스(on-premise)로 공공기관 내부에 설치하면, 미국 클라우드 API 의존 없이 높은 성능의 AI를 비교적 낮은 비용으로 운영할 수 있습니다. 반면 보안·데이터 주권 측면에서는 중국산 AI 모델에 공공 데이터를 입력하거나, 중국 서버와 연결된 서비스를 활용하는 것에 대한 우려도 있습니다. 기재부 정책방향은 딥시크류의 오픈소스 모델 활용 가능성을 열어두되, 엄격한 보안 검증 절차를 선행 조건으로 제시하고 있습니다.
| 모델 | 벤치마크 성능 | 훈련 비용 | 라이선스 | 공공기관 활용 적합성 |
|---|---|---|---|---|
| DeepSeek-R1 | AIME 79.8%, MATH-500 97.3% | 약 $600만 | MIT (오픈소스) | 보안 검증 후 온프레미스 가능 |
| DeepSeek-V3 | 코딩·수학 GPT-4o 상회 | 약 $550만 | MIT (오픈소스) | 보안 검증 후 온프레미스 가능 |
| DeepSeek-R1-Distill | Qwen/Llama 기반 경량화 | 추가 비용 최소화 | MIT (오픈소스) | 엣지 서버 배포 가능 |
| GPT-4o (OpenAI) | 종합 1위권 | API 종량제 | 상용 API | 클라우드 의존, 개인정보 유출 우려 |
| Claude-3.5 Sonnet | 추론·코딩 최상위권 | API 종량제 | 상용 API | 클라우드 의존, 미국 서버 저장 |
| HyperCLOVA X (네이버) | 한국어 특화 최상위 | 높은 초기 투자 | 상용 (공공 계약) | 국내 서버, 공공 조달 적합 |
EU AI Act: 한국 공공기관이 반드시 이해해야 할 규제 프레임워크
EU AI Act(인공지능법)는 2024년 8월 발효되어 2025년 2월부터 금지 AI 사용 규정이 적용되기 시작했습니다. 2026년 8월에는 고위험 AI 시스템 전반에 대한 의무가 완전 시행되고, 2027년 8월 일부 예외 규정이 만료되어 사실상 전면 적용 체계가 완성됩니다. EU AI Act는 EU 내 AI 시스템에만 적용되지만, 한국의 수출기업과 공공기관이 EU와 협력하거나 EU 시장을 대상으로 AI 서비스를 제공할 때 직접적인 준수 의무가 발생합니다.
한국 공공기관의 EU AI Act 준수 필요성은 두 가지 경로에서 발생합니다. 첫째, KOTRA, 무역보험공사 등이 EU 회원국 고객·파트너를 대상으로 AI 기반 서비스(바이어 매칭, 리스크 분석 등)를 제공하면 EU AI Act의 역외 적용 원칙에 따라 해당 AI 시스템이 규제 대상이 됩니다. 둘째, EU 시장에서 활동하는 한국 기업들이 KOTRA의 AI 지원 도구를 활용하여 EU 내 바이어와 거래할 때, KOTRA 플랫폼의 AI 적합성이 간접적으로 검증 요구를 받을 수 있습니다. 기재부 정책방향은 EU AI Act 기준을 한국 공공기관 AI 거버넌스의 준거 틀로 적극 참조하도록 권고하고 있습니다.
기재부 새정부 공공기관 AI 정책방향: 핵심 내용 분석
기획재정부는 새정부 출범 이후 "공공기관 AI 활용 정책방향"을 발표하며 세 가지 핵심 축을 제시했습니다. 첫째 적극 활용(AI 도입 가속화), 둘째 안전 관리(리스크 최소화), 셋째 생산성 혁신 (업무 효율화)입니다. 이 방향은 스타게이트·딥시크·EU AI Act라는 세 가지 글로벌 변수를 직접 참조하며 수립된 것으로, 글로벌 AI 경쟁에서 뒤처지지 않으면서도 공공 신뢰성을 유지하는 균형을 목표로 합니다.
| 과제 영역 | 세부 내용 | 적용 대상 | 시행 시기 |
|---|---|---|---|
| AI 도입 가속화 | AI 우선 도입(AI-First) 원칙 수립, 업무 자동화율 연 10%p 향상 목표 | 전체 공공기관 | 2025년 즉시 |
| 생성형 AI 활용 | ChatGPT류 생성형 AI 업무 활용 가이드라인 배포, 보안 등급별 사용 허용 범위 | 직원 개인 활용 | 2025년 1분기 |
| 공공 특화 AI 개발 | 기관 고유 업무에 특화된 파인튜닝 모델 개발 지원, AI 클라우드 플랫폼 제공 | 중대형 공공기관 | 2025-2026년 |
| AI 안전관리 체계 | AI 영향평가 의무화, 알고리즘 감사 주기 설정, 인간 감독(HITL) 절차 | 고위험 AI 활용 기관 | 2026년 상반기 |
| 데이터 거버넌스 | 공공 데이터 AI 학습 활용 절차 표준화, 개인정보 비식별화 요건 | 데이터 보유 기관 | 2025-2026년 |
| AI 인재 육성 | 공공기관 AI 전문인력 2,000명 양성, AI 리터러시 전 직원 교육 | 전체 공공기관 | 2025-2028년 |
| 성과 측정 | AI 도입 효과 KPI 표준화, 기관 경영평가에 AI 활용 지표 반영 | 경영평가 대상 기관 | 2026년 경평 반영 |
| 국제 협력 | OECD AI 원칙, EU AI Act 기준 준용, G20 AI 거버넌스 협력 참여 | 외부 연계 AI 서비스 기관 | 2025-2027년 |
정책방향에서 특히 주목할 변화는 "AI 우선(AI-First)" 원칙입니다. 과거에는 신규 업무 시스템을 도입할 때 IT 기반 전통적 방식이 기본이고 AI가 옵션이었다면, 이제는 모든 신규 시스템·서비스 기획 단계에서 "AI로 처리 가능한가"를 먼저 검토하도록 절차를 바꾼 것입니다. KOTRA의 Navi AI 바이어 매칭이나 TriBIG 시장 분석 플랫폼은 이 AI 우선 원칙의 선도 사례로 타 공공기관 AI 도입 모델이 되고 있습니다.
공공기관 AI 안전관리 프레임워크: 실무 적용 가이드
기재부 정책방향의 핵심 중 하나는 AI 안전관리 체계의 의무화입니다. 2026년 상반기부터 고위험 AI를 활용하는 공공기관은 사전 AI 영향평가(AI Impact Assessment)를 수행하고, 그 결과를 공개해야 합니다. 여기서 "고위험"의 기준은 EU AI Act와 대체로 정렬되어 있으며, 추가로 한국 특유의 기준(행정 서비스 AI, 대규모 개인정보 처리 AI 등)이 포함됩니다.
스타게이트·딥시크·EU AI Act라는 세 가지 글로벌 변수는 서로 다른 방향에서 한국 공공기관 AI 정책에 압력을 가하고 있습니다. 스타게이트는 미국 AI 인프라 패권을 강화하며 한국의 의존도를 높이고, 딥시크는 저비용 고성능 AI를 통해 공공기관의 자체 AI 운영 가능성을 높이며, EU AI Act는 규제 준수 부담을 새롭게 부여합니다. 기재부가 제시한 AI 우선 원칙과 안전관리 프레임워크는 이 세 가지 힘을 균형 있게 관리하려는 구조적 대응입니다. KOTRA를 포함한 무역·투자 관련 공공기관은 이 정책방향을 발판으로 AI 도입을 가속화하면서도, 데이터 주권·알고리즘 투명성·인간 감독이라는 세 가지 원칙을 지켜나가야 합니다. 방글라데시 다카무역관과 같은 해외 거점은 이 AI 인프라의 현장 구현체로서, 글로벌 규제 환경 변화에 선제적으로 적응하는 역할을 맡게 됩니다.