정책/제도

기재부 새정부 공공기관 AI 정책방향: 스타게이트/딥시크/EU AI Act

글로벌 AI 경쟁 구도: 스타게이트·딥시크·EU AI Act의 충돌

2025년 이후 전 세계 AI 경쟁은 미국·중국·유럽 3극 구도로 재편되고 있습니다. 미국은 민관 합동 5,000억 달러 규모의 스타게이트(Stargate) 프로젝트로 AI 인프라 패권을 공고히 하려 하고, 중국은 딥시크(DeepSeek) R1·V3 모델로 훨씬 낮은 비용에 미국 수준의 성능을 구현하며 "AI 민주화"를 선언했습니다. 유럽은 EU AI Act(인공지능법)를 2025년 2월부터 단계적으로 시행하며 고위험 AI 규제 프레임워크를 전 세계 표준으로 만들려 합니다.

이 세 가지 흐름은 한국 공공기관 AI 정책에 직접적인 파급 효과를 미칩니다. 기획재정부는 새정부 출범 이후 "공공기관 AI 활용 정책방향"을 발표하며, 글로벌 AI 경쟁 환경 속에서 한국 공공기관이 AI를 어떻게 도입하고, 어떻게 안전하게 관리할 것인지를 구체적으로 제시했습니다. KOTRA, 코트라, 무역보험공사 등 무역·투자 관련 공공기관들이 이 정책방향의 직접적인 적용 대상이며, AI 기반 무역 지원 인프라 확충 전략 전반에 영향을 줍니다.

$5,000억
스타게이트 투자 규모
미국 민관 합동 AI 인프라 투자 (4년)
$600만
딥시크 훈련 비용
R1 훈련 비용 (GPT-4 대비 약 1/100)
2026년 8월
EU AI Act 고위험 규제
고위험 AI 시스템 전면 의무 적용 시점
38%
한국 공공기관 AI 도입률
2025년 공공기관 AI 활용 현황 (기재부)
2.1조원
공공기관 AI 예산
2026년 정부 AI 관련 예산 편성 규모
350개+
AI 안전관리 의무 기관
기재부 지정 AI 안전관리 대상 공공기관
$6,000억
글로벌 AI 시장 규모
2030년 전망치 (IDC, 2025)
12종
KOTRA AI 도구 목표
2030년까지 순차 출시 예정 AI 도구

미국 스타게이트 프로젝트: AI 인프라 패권 전쟁의 서막

2025년 1월 트럼프 대통령은 오픈AI, 소프트뱅크, 오라클이 공동 참여하는 "스타게이트(Stargate)" 프로젝트를 발표했습니다. 4년간 최대 5,000억 달러를 투자하여 미국 전역에 AI 데이터센터와 슈퍼컴퓨팅 인프라를 구축하는 프로젝트입니다. 첫 단계로 텍사스 아빌린에 엔비디아 GB200 칩 기반 데이터센터 10개를 2026년까지 완공하는 계획이 진행 중입니다.

스타게이트는 단순한 민간 투자를 넘어 미국 정부의 AI 패권 전략과 직결됩니다. 오픈AI, 앤트로픽, 마이크로소프트 등 미국 AI 기업들이 글로벌 AI 서비스의 기반 인프라를 장악하면, 전 세계 공공기관과 기업이 미국 클라우드·AI 서비스에 의존하는 구조가 심화됩니다. 한국 공공기관도 마찬가지입니다. 기재부는 이 종속성을 줄이면서도 최첨단 AI 성능을 활용하는 균형점을 찾는 것이 공공기관 AI 정책의 핵심 과제 중 하나임을 명시하고 있습니다.

스타게이트 1단계 (2025-2026): 인프라 기반 구축
투자 규모1차 1,000억 달러 즉시 집행
핵심 파트너오픈AI, 소프트뱅크, 오라클
인프라 규모텍사스 데이터센터 10개동 착공
한국 영향오픈AI API 의존 공공서비스 증가
스타게이트 2단계 (2027-2028): 글로벌 AI 서비스 확장
투자 규모2-4차 추가 4,000억 달러 투입
핵심 파트너엔비디아, ARM, 마이크로소프트 연계
인프라 규모전국 20개 이상 거점 완성
한국 영향미국 AI 표준·규격 글로벌 de facto화
한국 대응 전략: 독립성·활용성 균형
독자 AI 개발국산 LLM 및 공공 특화 모델 지원
글로벌 AI 활용검증된 해외 AI API 도입 허용
데이터 주권공공 데이터 역외 이전 규제 강화
인프라 투자국가 AI 컴퓨팅 센터 4개소 구축

중국 딥시크 충격: 저비용 고성능 AI의 공공기관 도입 함의

2025년 1월 중국 딥시크(DeepSeek)가 공개한 R1 모델은 전 세계 AI 업계에 충격을 주었습니다. 오픈AI의 o1 모델에 필적하는 추론 성능을 단 600만 달러의 훈련 비용으로 달성했다는 주장과 함께, 모델 가중치를 오픈소스로 공개하여 누구나 자유롭게 활용할 수 있도록 했습니다. V3 모델은 코딩, 수학, 자연어 이해에서 GPT-4o를 상회하는 벤치마크 결과를 내놓으며 "AI 비용의 민주화"가 현실화되는 전환점을 만들었습니다.

딥시크는 한국 공공기관 AI 정책에 양면적 의미를 가집니다. 긍정적 측면에서는 오픈소스 기반의 딥시크 모델을 온프레미스(on-premise)로 공공기관 내부에 설치하면, 미국 클라우드 API 의존 없이 높은 성능의 AI를 비교적 낮은 비용으로 운영할 수 있습니다. 반면 보안·데이터 주권 측면에서는 중국산 AI 모델에 공공 데이터를 입력하거나, 중국 서버와 연결된 서비스를 활용하는 것에 대한 우려도 있습니다. 기재부 정책방향은 딥시크류의 오픈소스 모델 활용 가능성을 열어두되, 엄격한 보안 검증 절차를 선행 조건으로 제시하고 있습니다.

딥시크 주요 모델 성능·비용 비교 (2025년 기준)
모델벤치마크 성능훈련 비용라이선스공공기관 활용 적합성
DeepSeek-R1AIME 79.8%, MATH-500 97.3%약 $600만MIT (오픈소스)보안 검증 후 온프레미스 가능
DeepSeek-V3코딩·수학 GPT-4o 상회약 $550만MIT (오픈소스)보안 검증 후 온프레미스 가능
DeepSeek-R1-DistillQwen/Llama 기반 경량화추가 비용 최소화MIT (오픈소스)엣지 서버 배포 가능
GPT-4o (OpenAI)종합 1위권API 종량제상용 API클라우드 의존, 개인정보 유출 우려
Claude-3.5 Sonnet추론·코딩 최상위권API 종량제상용 API클라우드 의존, 미국 서버 저장
HyperCLOVA X (네이버)한국어 특화 최상위높은 초기 투자상용 (공공 계약)국내 서버, 공공 조달 적합

EU AI Act: 한국 공공기관이 반드시 이해해야 할 규제 프레임워크

EU AI Act(인공지능법)는 2024년 8월 발효되어 2025년 2월부터 금지 AI 사용 규정이 적용되기 시작했습니다. 2026년 8월에는 고위험 AI 시스템 전반에 대한 의무가 완전 시행되고, 2027년 8월 일부 예외 규정이 만료되어 사실상 전면 적용 체계가 완성됩니다. EU AI Act는 EU 내 AI 시스템에만 적용되지만, 한국의 수출기업과 공공기관이 EU와 협력하거나 EU 시장을 대상으로 AI 서비스를 제공할 때 직접적인 준수 의무가 발생합니다.

EU AI Act 위험 등급별 규제 체계
허용 불가(Unacceptable)
사회신용 시스템, 생체인식 실시간 감시, 감정 인식(일부) → 원칙적 금지, 2025년 2월부터 즉시 적용
고위험(High-Risk)
채용·입시·신용·의료·사법·교육 AI → CE 마킹, 적합성 평가, 인간 감독 의무, 2026년 8월 전면 적용
제한적 위험(Limited Risk)
챗봇, AI 생성 콘텐츠 → 투명성 의무(AI임을 고지), 딥페이크 표시 의무
최소 위험(Minimal Risk)
스팸 필터, AI 게임 등 → 자율 규제, 별도 의무 없음
범용 AI(GPAI)
GPT-4, 딥시크급 → 투명성 의무, 고영향 모델은 추가 의무 (시스템 심사 등)

한국 공공기관의 EU AI Act 준수 필요성은 두 가지 경로에서 발생합니다. 첫째, KOTRA, 무역보험공사 등이 EU 회원국 고객·파트너를 대상으로 AI 기반 서비스(바이어 매칭, 리스크 분석 등)를 제공하면 EU AI Act의 역외 적용 원칙에 따라 해당 AI 시스템이 규제 대상이 됩니다. 둘째, EU 시장에서 활동하는 한국 기업들이 KOTRA의 AI 지원 도구를 활용하여 EU 내 바이어와 거래할 때, KOTRA 플랫폼의 AI 적합성이 간접적으로 검증 요구를 받을 수 있습니다. 기재부 정책방향은 EU AI Act 기준을 한국 공공기관 AI 거버넌스의 준거 틀로 적극 참조하도록 권고하고 있습니다.

01
EU AI Act의 한국 공공기관 직접 적용 요건
EU 고위험 AI 규정이 적용되는 공공기관 AI 유형은 다음과 같습니다. ① 채용·인사 평가에 AI 활용 시 (고위험), ② 공공서비스 자격 심사·수급 결정 AI (고위험), ③ 법집행·사법 지원 AI (고위험), ④ 교육 훈련 성과 평가 AI (고위험). KOTRA의 바이어 매칭·시장 분석 AI는 "제한적 위험" 또는 "최소 위험" 범주로 분류될 가능성이 높지만, EU 기업을 대상으로 신용·투자 판단을 지원하는 AI는 고위험 검토 대상이 될 수 있습니다.
02
범용 AI(GPAI) 모델 사용 시 의무사항
GPT-4, 딥시크 V3, 클로드 등 범용 AI 모델을 공공기관이 활용할 때 EU AI Act GPAI 조항이 적용됩니다. 핵심 의무는 ① AI 생성 결과물에 AI 생성 표시, ② 저작권 침해 방지 정책 수립, ③ 시스템 기술 문서 작성입니다. 고영향 GPAI 모델(훈련 연산 10²⁵ FLOP 이상)은 추가로 시스템 보안 평가, 사고 보고 의무가 부과됩니다. 한국 공공기관은 사용하는 AI 모델이 이 기준을 충족하는지 사전에 검토해야 합니다.
03
EU AI Act 준수와 한국 AI 안전 규제의 연계
한국 정부는 2025년 AI 기본법 시행령을 통해 고위험 AI에 대한 사전 영향평가·사후 감사 체계를 도입했습니다. EU AI Act와의 상호 인정(mutual recognition) 협약 논의도 진행 중입니다. 공공기관이 EU AI Act 기준에 맞는 시스템 문서화·인간 감독 체계를 갖추면, 한국 AI 기본법 준수도 함께 충족되는 구조로 정렬되고 있습니다. 이는 규제 부담을 이중으로 지는 것이 아니라, 하나의 준수 체계로 양국 규제를 동시에 충족하는 효율화입니다.
04
EU AI Act 위반 시 제재 수준
금지 AI 활용(허용 불가 범주) 위반 시 전 세계 연간 매출의 7% 또는 3,500만 유로 중 큰 금액이 과징금으로 부과됩니다. 고위험 AI 의무 위반 시에는 3% 또는 1,500만 유로, 허위 정보 제공 시에는 1.5% 또는 750만 유로입니다. EU 시장과 연계된 한국 공공기관·기업에게는 간접적이더라도 현실적인 리스크입니다. 특히 KOTRA가 EU 기업 대상 AI 서비스를 확대하는 2027년 이후에는 EU AI Act 준수 여부가 서비스 운영의 필수 조건이 됩니다.
KOTRA AI 무역투자 인프라 확충 계획 전체 분석TriBIG 빅데이터 플랫폼, Navi AI 바이어 매칭, DX혁신랩 등 KOTRA의 2025-2030 AI 인프라 확충 로드맵을 EU AI Act 및 글로벌 규제 환경과 함께 살펴봅니다

기재부 새정부 공공기관 AI 정책방향: 핵심 내용 분석

기획재정부는 새정부 출범 이후 "공공기관 AI 활용 정책방향"을 발표하며 세 가지 핵심 축을 제시했습니다. 첫째 적극 활용(AI 도입 가속화), 둘째 안전 관리(리스크 최소화), 셋째 생산성 혁신 (업무 효율화)입니다. 이 방향은 스타게이트·딥시크·EU AI Act라는 세 가지 글로벌 변수를 직접 참조하며 수립된 것으로, 글로벌 AI 경쟁에서 뒤처지지 않으면서도 공공 신뢰성을 유지하는 균형을 목표로 합니다.

기재부 공공기관 AI 활용 정책방향 핵심 과제 (2025-2027)
과제 영역세부 내용적용 대상시행 시기
AI 도입 가속화AI 우선 도입(AI-First) 원칙 수립, 업무 자동화율 연 10%p 향상 목표전체 공공기관2025년 즉시
생성형 AI 활용ChatGPT류 생성형 AI 업무 활용 가이드라인 배포, 보안 등급별 사용 허용 범위직원 개인 활용2025년 1분기
공공 특화 AI 개발기관 고유 업무에 특화된 파인튜닝 모델 개발 지원, AI 클라우드 플랫폼 제공중대형 공공기관2025-2026년
AI 안전관리 체계AI 영향평가 의무화, 알고리즘 감사 주기 설정, 인간 감독(HITL) 절차고위험 AI 활용 기관2026년 상반기
데이터 거버넌스공공 데이터 AI 학습 활용 절차 표준화, 개인정보 비식별화 요건데이터 보유 기관2025-2026년
AI 인재 육성공공기관 AI 전문인력 2,000명 양성, AI 리터러시 전 직원 교육전체 공공기관2025-2028년
성과 측정AI 도입 효과 KPI 표준화, 기관 경영평가에 AI 활용 지표 반영경영평가 대상 기관2026년 경평 반영
국제 협력OECD AI 원칙, EU AI Act 기준 준용, G20 AI 거버넌스 협력 참여외부 연계 AI 서비스 기관2025-2027년

정책방향에서 특히 주목할 변화는 "AI 우선(AI-First)" 원칙입니다. 과거에는 신규 업무 시스템을 도입할 때 IT 기반 전통적 방식이 기본이고 AI가 옵션이었다면, 이제는 모든 신규 시스템·서비스 기획 단계에서 "AI로 처리 가능한가"를 먼저 검토하도록 절차를 바꾼 것입니다. KOTRA의 Navi AI 바이어 매칭이나 TriBIG 시장 분석 플랫폼은 이 AI 우선 원칙의 선도 사례로 타 공공기관 AI 도입 모델이 되고 있습니다.

공공기관 AI 안전관리 프레임워크: 실무 적용 가이드

기재부 정책방향의 핵심 중 하나는 AI 안전관리 체계의 의무화입니다. 2026년 상반기부터 고위험 AI를 활용하는 공공기관은 사전 AI 영향평가(AI Impact Assessment)를 수행하고, 그 결과를 공개해야 합니다. 여기서 "고위험"의 기준은 EU AI Act와 대체로 정렬되어 있으며, 추가로 한국 특유의 기준(행정 서비스 AI, 대규모 개인정보 처리 AI 등)이 포함됩니다.

공공기관 AI 도입 안전관리 절차 (기재부 가이드라인)
1단계: AI 영향평가
도입 전 위험 등급 분류 → 고위험 해당 시 전문기관 평가 의뢰 → 결과 공개
2단계: 보안 적합성 검증
국가정보원 AI 보안 인증 또는 자체 보안 심사 → 공공망 연결 허가 취득
3단계: 인간 감독 체계 구축
HITL(Human-in-the-Loop) 절차 설계 → AI 결정 검토 담당자 지정 → 이의 제기 창구 마련
4단계: 운영 모니터링
성능 저하·편향·오작동 모니터링 → 분기별 알고리즘 감사 → 이상 시 즉시 서비스 중단 프로토콜
5단계: 사후 평가 및 개선
연간 AI 성과 보고서 작성·공개 → 외부 감사 수검 → 차년도 개선 계획 반영
저위험 AI 활용 (경량 절차)
대상 예시문서 요약, 번역, 일정 관리, Q&A 챗봇
영향평가자체 체크리스트 (2주 이내)
보안 검증기관 내부 보안 심사
공개 의무운영 현황 연 1회 보고
중위험 AI 활용 (표준 절차)
대상 예시민원 처리 분류, 보조금 심사 지원, 채용 서류 필터링
영향평가전문기관 참여 평가 (4-8주)
보안 검증KISA AI 보안 검토
공개 의무평가 결과 및 운영 현황 공개
고위험 AI 활용 (강화 절차)
대상 예시복지 수급 결정, 공무원 성과 평가, 법집행 지원
영향평가독립 기관 심층 평가 + 국회 보고
보안 검증국정원 AI 보안 인증 필수
공개 의무알고리즘 설명문, 이의 제기 절차 공개 의무
KOTRA AI 무역투자 인프라 2025-2030 로드맵TriBIG·Navi·DX혁신랩 3대 AI 인프라 축과 2027년 플랫폼 통합 로드맵, 방글라데시 무역 지원 현장 적용 계획을 종합적으로 정리합니다

스타게이트·딥시크·EU AI Act라는 세 가지 글로벌 변수는 서로 다른 방향에서 한국 공공기관 AI 정책에 압력을 가하고 있습니다. 스타게이트는 미국 AI 인프라 패권을 강화하며 한국의 의존도를 높이고, 딥시크는 저비용 고성능 AI를 통해 공공기관의 자체 AI 운영 가능성을 높이며, EU AI Act는 규제 준수 부담을 새롭게 부여합니다. 기재부가 제시한 AI 우선 원칙과 안전관리 프레임워크는 이 세 가지 힘을 균형 있게 관리하려는 구조적 대응입니다. KOTRA를 포함한 무역·투자 관련 공공기관은 이 정책방향을 발판으로 AI 도입을 가속화하면서도, 데이터 주권·알고리즘 투명성·인간 감독이라는 세 가지 원칙을 지켜나가야 합니다. 방글라데시 다카무역관과 같은 해외 거점은 이 AI 인프라의 현장 구현체로서, 글로벌 규제 환경 변화에 선제적으로 적응하는 역할을 맡게 됩니다.

AI정책공공기관AI스타게이트딥시크EU AI ActAI안전관리기재부AI거버넌스공공AI활용KOTRA
기재부 새정부 공공기관 AI 정책방향: 스타게이트/딥시크/EU AI Act | Dhaka Trade Portal