솔직히 말할게요. 한 달 전까지만 해도 “AI 기본법? 그거 IT 회사나 신경 쓰는 거 아냐?” 이러고 있었거든요.
근데 뚜껑 열어보니까 완전 딴 얘기였어요.
2026년 1월 22일, 「인공지능 발전과 신뢰 기반 조성 등에 관한 기본법」이 본격 시행됐어요. 이름이 좀 길죠? 줄여서 ‘AI 기본법’이라고 불러요. 우리나라가 세계 최초로 AI 기본법을 전면 시행한 나라가 됐거든요. EU보다 빨랐어요.
“그게 나한테 무슨 상관인데?” 싶죠?
상관있어요. 꽤 많이요. 지금 국내 기업의 55.7%가 이미 생성형 AI를 쓰고 있고, 2026년 말까지 **85%**로 늘어날 전망이에요. 우리 회사가 ChatGPT로 보고서 쓰고, AI로 이력서 걸러내고, 챗봇으로 고객 응대하고 있다면 – 이 법 얘기를 그냥 넘기면 안 돼요.
오늘 이 글 하나로 정리해드릴게요. 법 조문 읊는 거 아니고, 직장인 입장에서 진짜 알아야 할 것만 콕콕 짚어볼게요.
AI 기본법이 뭐예요?
한 문장으로요? **“AI 잘 키우면서, 사고 치면 책임지게 하자”**에요.
좀 더 풀어볼게요.
AI가 워낙 빠르게 퍼지니까, 정부가 두 가지를 동시에 하겠다는 거예요. 하나는 AI 산업 키우기. 다른 하나는 AI가 사람한테 피해 주는 거 막기. EU가 만든 ‘EU AI Act’이 “일단 규제부터!“였다면, 우리 AI 기본법은 “성장하면서 관리하자” 쪽에 더 무게를 뒀어요.
핵심 키워드 3개만 기억하세요.
| 키워드 | 의미 |
|---|---|
| 고영향 AI | 사람의 생명, 안전, 기본권에 큰 영향 주는 AI |
| 생성형 AI | ChatGPT, Claude, Gemini 같은 콘텐츠 만드는 AI |
| 투명성 의무 | “이거 AI가 만들었어요"라고 밝히는 것 |
이 세 개가 법의 뼈대예요. 뒤에서 하나씩 자세히 풀어드릴게요.
참고로 법에서 말하는 ‘AI 사업자’는 삼성, 네이버 같은 대기업만 가리키는 게 아니에요. AI를 활용해서 제품이나 서비스를 제공하는 모든 사업자가 해당돼요. 우리 회사가 AI 챗봇으로 고객 상담하고 있다면? 네, 해당될 수 있어요.
직장인이 알아야 할 5가지 핵심
1. “이거 AI가 만들었어요” – 투명성 고지 의무
지금부터가 진짜 중요한 부분이에요.
회사에서 AI 서비스 쓰고 있다면, 고객한테 “이건 AI 기반이에요"라고 미리 알려야 해요. 이게 바로 ‘사전 고지 의무’예요. 고영향 AI든 생성형 AI든 상관없이, 이용자가 “아 이거 AI네?” 하고 인식할 수 있게 해줘야 하거든요.
특히 생성형 AI로 만든 이미지, 영상, 음성에는 워터마크 표시가 의무예요. 정부 정책브리핑에 따르면, AI가 만든 콘텐츠인지 이용자가 알 수 있도록 워터마크나 안내 문구를 넣어야 해요.
딥페이크는 더 엄격해요. 실존 인물 얼굴을 합성한 영상이나, 사람과 구별하기 어려운 AI 합성물은 눈에 보이는 표시 + 기계 판독 가능한 표식 둘 다 필요해요.
이거 안 하면? 과태료 500만 원. 반복하면 최대 1,500만 원까지 올라가요.
직장인이 할 일: 우리 팀에서 AI로 만든 콘텐츠(마케팅 이미지, SNS 영상, 보고서 등) 있는지 체크해보세요. 있다면 “AI 생성” 표시가 붙어 있는지 확인하세요.
참고로 AI 윤리와 규제 흐름이 궁금하다면 AI 윤리 코스에서 체계적으로 배울 수 있어요. 법의 배경을 이해하면 대응도 훨씬 수월하거든요.
2. “이 AI, 혹시 위험하진 않아?” – 고영향 AI 판단
법에서 가장 신경 쓰는 게 **고영향 AI(High-Impact AI)**예요.
“고영향"이란 뭐냐면, AI가 사람의 생명, 신체 안전, 기본권에 심각한 영향을 줄 수 있는 경우를 말해요. 구체적으로 이런 분야들이에요.
| 분야 | 예시 |
|---|---|
| 의료 | AI 진단, 의료기기 제어 |
| 금융 | AI 신용평가, 대출 심사 |
| 채용/인사 | AI 이력서 필터링, 면접 평가 |
| 교통 | 자율주행, 교통 관제 |
| 에너지/원자력 | 발전소 제어 시스템 |
| 교육 | AI 기반 학생 평가 |
주의할 점은, 특정 산업이면 무조건 고영향인 게 아니에요. 사용 영역, 영향의 심각도, 기본권 침해 빈도 등을 종합적으로 판단해요.
고영향 AI 사업자가 되면 의무가 확 늘어나요.
- 영향 평가: 서비스 제공 전에 기본권에 미치는 영향을 자체 평가해야 해요
- 위험 관리 체계: AI 수명 주기 전반에 걸쳐서 위험 식별, 평가, 완화 체계를 만들어야 해요
- 사고 모니터링: AI 관련 안전사고를 계속 모니터링하고 대응하는 시스템이 필요해요
법 시행 직후 기업들 문의가 쏟아졌는데, 가장 많은 질문이 뭐였는지 아세요? **“우리 회사가 고영향 AI에 해당하나요?”**였대요. 그만큼 기준이 아직 모호하게 느껴지는 부분이 있거든요.
직장인이 할 일: 우리 회사가 AI로 사람의 채용, 대출, 건강, 안전과 관련된 의사결정을 하고 있는지 확인하세요. 해당되면 법무팀이나 컴플라이언스팀에 “고영향 AI 해당 여부 검토” 안건을 올리세요.
혹시 AI 리스크 평가가 뭔지 감이 안 잡히면, DPIA 평가 스킬을 활용해보세요. 영향 평가 프레임워크를 바로 잡아줘요.
3. “해외 AI 서비스도 규제받나요?” – 국내대리인 제도
OpenAI, 구글, 메타… 우리가 매일 쓰는 AI 서비스 대부분이 해외 거잖아요.
AI 기본법은 해외 사업자도 피해갈 수 없어요. 국내에 주소나 영업소가 없는 해외 AI 사업자는 일정 기준을 충족하면 반드시 국내대리인을 지정해야 해요.
기준이 뭐냐면요.
- 전년도 매출액 1조 원 이상, 또는
- AI 서비스 부문 전년도 매출 100억 원 이상, 또는
- 직전 3개월 국내 일평균 이용자 100만 명 이상
구글, 메타, 마이크로소프트, OpenAI, 줌 등 16개 해외 사업자에게 이미 국내 법인으로 대리인을 변경하라는 권고가 나갔어요. 안 하면 과태료 2,000만 원이에요.
이게 직장인한테 무슨 의미냐고요? 우리 회사가 쓰는 해외 AI 서비스가 한국법을 지키고 있는지 확인해야 한다는 거예요. 만약 해외 AI 서비스가 국내대리인 없이 운영되고 있으면, 우리 회사 쪽에서도 리스크가 생길 수 있거든요.
직장인이 할 일: 우리 팀에서 구독하고 있는 해외 AI SaaS가 뭔지 리스트업하세요. 그 서비스들이 한국에 대리인을 두고 있는지 확인해보세요. 계약서에 한국법 준수 조항이 있는지도 체크하고요.
4. “당장 벌금 맞는 건 아니에요” – 과태료와 계도기간
휴, 여기서 좀 숨 돌리세요.
법은 2026년 1월 22일에 시행됐지만, 정부가 최소 1년간 계도기간을 운영해요. 쉽게 말하면 “1년간은 단속 안 하고 교육 위주로 갈게요"라는 거예요.
실제로 과태료가 부과되는 시점은 빨라도 2027년 이후가 될 가능성이 높아요.
그렇다고 느긋하게 있으면 큰코다쳐요. 계도기간은 준비하라고 주는 거지, 안 해도 된다는 뜻이 아니거든요.
과태료 정리해볼게요.
| 위반 사항 | 금액 |
|---|---|
| 고영향/생성형 AI 사전 고지 미이행 | 500만 원 (반복 시 최대 1,500만 원) |
| 해외사업자 국내대리인 미지정 | 2,000만 원 |
| 기타 위반 사항 | 최대 3,000만 원 |
EU랑 비교하면 사실 엄청 착한 편이에요. EU는 전 세계 매출의 최대 7% 또는 3,500만 유로(한화 약 500억 원)까지 때리거든요. 우리는 최대 3,000만 원이니까 금액 차이가 어마어마하죠.
근데 이게 ‘초기 버전’이라는 걸 기억하세요. 법이 자리 잡으면 제재 수준이 올라갈 수 있어요. 일단 지금 계도기간에 체계 잡아놓는 게 현명해요.
직장인이 할 일: “아직 계도기간이니까 괜찮아~“가 아니라, 지금이 가장 싸게 준비할 수 있는 시간이에요. 올해 안에 내부 AI 사용 현황 파악하고, 투명성 고지 절차 만들어두세요.
컴플라이언스 체크리스트가 필요하다면 GDPR 컴플라이언스 감사자 스킬을 참고하세요. GDPR 기반이지만 AI 기본법 대응에도 프레임워크가 많이 겹쳐요.
5. “채용 AI, 인사 AI도 해당돼요” – 직장 내 AI 활용과 기본권
이 부분이 직장인한테 가장 피부에 와닿을 거예요.
요즘 채용에 AI 많이 쓰잖아요. 이력서 AI 필터링, AI 면접 평가, AI 기반 인사 평가… 이런 것들이 고영향 AI에 해당될 가능성이 높아요. 왜냐면 사람의 고용이라는 기본권에 직접적으로 영향을 주니까요.
개인정보보호법 개정안도 같이 봐야 해요. 자동화된 시스템으로 개인정보를 처리해서 결정이 내려지는 경우, 정보 주체(= 우리 직장인, 지원자)에게 일정한 권리를 부여하게 됐거든요.
무슨 말이냐면요.
- AI가 내 이력서를 탈락시켰다면, 왜 탈락시켰는지 설명을 요구할 수 있어요
- AI가 내 인사고과를 산출했다면, 그 과정에 대한 정보를 받을 권리가 있어요
- 기업은 AI 채용 도구 쓸 때 지원자에게 사전 안내해야 해요
이건 기업 입장뿐 아니라 개인 입장에서도 알아둬야 할 권리예요. 내가 지원한 회사에서 AI로 면접 평가한다고? 그럼 나한테 사전에 알려줘야 해요. 안 했으면 문제 될 수 있어요.
기업 측 인사/HR 담당자라면, 지금 당장 **프라이버시 영향 평가(PIA)**와 **알고리즘 공정성 평가(Bias Audit)**를 시작해야 해요. 법적으로 권고사항이지만, 사실상 필수로 움직이는 분위기거든요.
직장인이 할 일: 구직 중이라면, 지원 회사가 AI 평가 도구를 쓰는지 물어보세요. 인사 담당자라면, 채용/인사에 쓰는 AI 도구 목록 만들고 공정성 검토를 시작하세요.
AI 시대에 내 커리어를 어떻게 지킬지 고민된다면 AI 시대 커리어 보호 스킬이 도움 돼요. 실제 전략이 담겨 있거든요.
우리 회사는 어떻게 준비해야 할까?
자, 핵심 5가지 파악했으니 이제 실전이에요. 회사 규모별로 정리해볼게요.
대기업 (임직원 300명 이상)
대기업은 이미 법무팀, 컴플라이언스팀이 있으니까 조직 차원에서 움직이고 있을 거예요.
지금 당장 해야 할 3가지:
- AI 인벤토리 작성: 회사 전체에서 쓰는 AI 시스템 전수조사. 부서별로 어떤 AI를, 어떤 목적으로, 어떤 데이터로 쓰고 있는지 파악
- 고영향 AI 해당 여부 판단: 각 AI 시스템이 고영향에 해당하는지 5가지 체크리스트로 검토 (AI타임스 보도에 따르면 정부에서 체크리스트를 제공하고 있어요)
- AI 거버넌스 체계 구축: 전사 차원의 AI 윤리 위원회, AI 리스크 관리 프로세스, 정기 감사 체계 마련
중소/중견기업 (임직원 50-300명)
자원이 대기업보다 부족하니까, 우선순위를 잘 잡아야 해요.
핵심 3단계:
- 현황 파악 (이번 달): 우리 회사에서 쓰는 AI 서비스 리스트업. 구독 중인 SaaS, 내부 개발 AI, 외주 AI 전부 포함
- 투명성 조치 (이번 분기): 고객 대면 AI 서비스에 “AI 기반” 표시 추가. 생성형 AI 결과물에 워터마크 적용
- 영향 평가 준비 (올해 하반기): 고영향 AI에 해당할 가능성이 있는 서비스부터 자체 영향 평가 진행
스타트업/소규모 기업
시간도 돈도 부족하죠. 그래도 이것만은 하세요.
- AI로 만든 콘텐츠에 “AI 생성” 표시 달기 (비용 0원, 시간 30분)
- 인공지능기본법 지원데스크 활용하기 (무료!)
- 해외 AI 서비스 계약서 한국법 준수 조항 확인하기
정부가 운영하는 AI 기본법 지원데스크(KOSA)가 있어요. 전화 상담은 080-850-2546, 평일 9시~18시에 무료로 이용할 수 있고, 온라인 접수도 가능해요. 일반 상담은 72시간 이내, 심층 법률 검토는 최대 14일 이내에 회신해준대요. 이거 모르는 기업이 진짜 많더라고요.
정부 가이드라인 5종, 꼭 읽어보세요
법 시행과 함께 정부가 가이드라인 5종을 공개했어요. 법 조문만 보면 막막하지만, 이 가이드라인이 실무 지침서 역할을 해요.
| 가이드라인 | 핵심 내용 |
|---|---|
| 고영향 AI 판단 가이드라인 | 우리 서비스가 고영향에 해당하는지 자가 진단 |
| 고영향 AI 사업자 책무 가이드라인 | 해당될 경우 뭘 해야 하는지 구체적 행동 지침 |
| 고영향 AI 영향평가 가이드라인 | 영향 평가를 어떻게 하는지 절차와 양식 |
| 생성형 AI 투명성 확보 가이드라인 | 워터마크, 고지 방법 등 구체적 방법론 |
| 최첨단 AI 안전성 확보 가이드라인 | 대규모 AI 모델의 안전 관리 체계 |
다 읽을 시간 없으면, 최소한 생성형 AI 투명성 확보 가이드라인이랑 고영향 AI 판단 가이드라인은 꼭 보세요. 우리 회사에서 바로 적용할 수 있는 내용이 가장 많거든요.
AI의 기본 개념부터 탄탄하게 잡고 싶다면 AI 기초 코스를 추천해요. 법이 왜 이런 구조로 만들어졌는지 이해하는 데 도움이 돼요.
EU AI Act과 뭐가 다를까?
“EU도 AI법 만들었다는데, 우리랑 뭐가 다른 거야?” 이 질문 많이 하시더라고요.
핵심 차이점 정리해드릴게요.
| 구분 | 한국 AI 기본법 | EU AI Act |
|---|---|---|
| 기본 방향 | 성장 + 관리 (산업 육성 중심) | 규제 중심 (인권 보호 중심) |
| AI 분류 | 고영향 / 일반 (2단계) | 금지 / 고위험 / 일반 / 최소 위험 (4단계) |
| 금지 AI | 별도 금지 규정 없음 | 감시용 AI, 생체 감정 분석 등 사용 금지 |
| 대상 구분 | “AI 사업자” 통칭 | 공급자/배포자/수입자/유통자 차등 의무 |
| 최대 제재 | 과태료 3,000만 원 | 매출의 7% 또는 3,500만 유로 |
| 적용 제외 | 국방/국가안보만 | 연구개발, 개인 사적 이용 등도 제외 |
한마디로, EU는 “안 되는 것"을 정해놓고 나머지를 허용하는 방식이고, 한국은 “해야 할 것"을 정해놓고 나머지는 자율에 맡기는 방식이에요.
EU는 감시용 AI나 실시간 원격 생체 인식 같은 건 아예 사용 자체를 금지해요. 한국은 그런 금지 규정이 없어요. 대신 고영향 AI로 분류되면 투명성, 안전성, 영향 평가 의무가 붙는 구조예요.
제재 수준 차이가 어마어마하죠? 우리는 최대 3,000만 원인데 EU는 수백억 원 수준이에요. 이건 한국이 산업 위축 없이 규제를 정착시키려는 의도가 크다고 볼 수 있어요.
그런데 흥미로운 건, 한국이 “전면 시행"은 세계 최초라는 점이에요. EU AI Act은 2024년에 통과됐지만 본격 시행은 단계별로 진행 중이거든요. 한국은 2026년 1월 22일에 한꺼번에 시행했어요.
글로벌 사업 하는 회사라면 둘 다 알아야 해요. EU 시장 진출하려면 EU AI Act, 한국 시장에서 사업하려면 AI 기본법. 기준이 다르니까 별도로 대응 전략 세워야 해요.
AI 보안 관련 규제가 궁금하다면 AI 에이전트 보안 코스도 같이 보세요. AI 시스템의 보안 취약점과 대응 방안을 다루거든요.
2025년 12월 개정안, 추가로 알아둘 것
잠깐, 법이 시행된 지 한 달 만에 벌써 개정안이 통과됐어요. 2025년 12월 30일에 국회 본회의를 통과한 개정안 주요 내용이에요.
뭐가 바뀌었냐면요:
- 국가인공지능전략위원회 개편: AI 정책 컨트롤 타워가 더 강화됐어요
- 인공지능연구소 설립 근거 마련: 국가 차원의 AI 연구 인프라를 만들겠다는 거예요
- AI 분야 창업 활성화 지원: 스타트업에 대한 지원 근거가 법에 명시됐어요
- 장애인 등 취약계층 AI 접근성 강화: AI 혜택이 모든 사람에게 돌아가도록 하는 조항이 추가됐어요
이 개정안은 규제 강화가 아니라 지원 강화 방향이에요. AI 산업을 키우면서 소외되는 사람이 없게 하겠다는 취지거든요. 직장인 입장에서는 AI 관련 교육, 창업 지원 프로그램이 늘어날 수 있으니 눈여겨볼 만해요.
현실적인 타임라인 – 언제까지 뭘 해야 할까?
마지막으로 시간 순서대로 정리할게요. 냉장고에 붙여놓으세요.
2026년 상반기 (지금 ~ 6월)
- 회사 내 AI 사용 현황 전수조사
- 고영향 AI 해당 여부 자가 진단
- AI 생성 콘텐츠에 투명성 표시 적용 시작
- AI 기본법 지원데스크에 우리 회사 상황 상담
2026년 하반기 (7월 ~ 12월)
- 고영향 AI 영향 평가 실시 (해당 시)
- AI 거버넌스 정책 문서화
- 직원 대상 AI 윤리/규정 교육 실시
- 해외 AI 서비스 계약서 한국법 준수 조항 점검
2027년 (계도기간 종료 후)
- 과태료 부과 시작 가능 – 모든 의무사항 이행 완료 확인
- 정기 감사 및 모니터링 체계 가동
- AI 영향 평가 결과 업데이트
정리하면요
길게 썼는데 핵심만 다시 짚으면 이래요.
- AI 기본법은 IT 회사만의 얘기가 아니에요. AI 쓰는 모든 기업이 해당돼요.
- 투명성이 핵심이에요. “이거 AI에요"라고 알려주면 절반은 해결이에요.
- 고영향 AI면 의무가 확 늘어요. 채용, 금융, 의료 분야는 특히 주의하세요.
- 계도기간 1년은 준비 시간이에요. 느긋하게 있으면 안 돼요.
- 지원데스크를 적극 활용하세요. 무료인데 모르는 기업이 너무 많아요.
우리가 AI를 잘 쓰면서 동시에 책임도 지는 시대가 시작된 거예요. 무섭다기보다는, 방향이 생겼다고 보면 돼요.
AI 기본법이 뜬금없이 느껴진다면, 먼저 AI가 뭔지부터 제대로 이해하는 게 순서예요. AI 기초 코스에서 기초 개념 잡고, AI 윤리 코스에서 규제 흐름을 파악하고, 사이버보안 기초 코스에서 보안 리스크까지 챙기면 – 이 법이 왜 이렇게 만들어졌는지 자연스럽게 이해될 거예요.
이 글이 도움 됐다면 같은 팀 동료한테도 공유해주세요. 법은 혼자 대응하는 게 아니라 조직 전체가 같이 움직여야 하거든요.
궁금한 거 있으면 댓글 남겨주세요. 같이 공부해봐요.