서론: 데미스 하사비스의 지적과 경제학의 역할
Google DeepMind CEO 데미스 하사비스는 최근 인터뷰와 발언에서 AGI(Artificial General Intelligence, 인간 수준의 모든 인지 작업을 수행할 수 있는 AI)가 5~10년 내 도착할 가능성을 강조하며, 성공 시 "초잉여 사회(radical abundance)"를 가져올 수 있다고 예측했습니다. 그는 이로 인해 자본주의 시스템, 화폐의 역할, 기업의 개념 자체가 재고되어야 하며, 경제학자들이 이 문제를 더 적극적으로 연구해야 한다고 지적했습니다. 실제로 2025년 말 현재, DeepMind은 "post-AGI 경제"를 탐구하기 위해 전문 경제학자를 채용 중이며, 이는 AGI의 잠재적 변혁성을 인정하는 신호입니다.
기술 혁신과 경제 성장을 연구해온 필자는 이 주제를 심도 있게 분석합니다. AGI는 일반 목적 기술(GPT)로서 과거 전기나 컴퓨터처럼 경제를 재편할 수 있지만, 그 속도와 규모가 훨씬 클 수 있습니다. 그러나 불확실성이 크며, 경제학자들은 이미 이 분야를 활발히 연구 중입니다(NBER, MIT, OECD 등). 아래에서 긍정적·부정적 영향, 시나리오, 정책 제안을 균형 있게 검토하겠습니다.
AGI는 생산성을 폭발적으로 높일 수 있습니다. 인간 노동을 완전히 대체하거나 보완하면, 총요소생산성(TFP)이 급증하고 GDP 성장률이 기존 2~3%에서 수십 %로 상승할 가능성이 있습니다.
| 영향 영역 | 긍정적 효과 | 부정적/위험 효과 | 주요 연구 출처 (2025년 기준) |
|---|---|---|---|
| 생산성 및 성장 | AI 자동화로 비용 절감, 혁신 가속 (신약 개발 10배 빨라짐) | 초기 투자 과열로 버블 발생 가능 | Acemoglu (2025), Korinek & Suh (2024) |
| 노동 시장 | 새로운 직업 창출 (AI 관리·윤리 전문가) | 대규모 실업 (입문직 50% 사라질 수 있음) | Restrepo (2025), Amodei 예측 |
| 불평등 | 풍요 공유 시 빈곤 감소 | 소득 집중 (AGI 소유자 독점) | Brynjolfsson et al. (2025) |
| 사회 구조 | 여가 시간 증가, 창의적 활동 확대 | 의미 상실, 사회 불안정 | Hassabis 발언, Post-scarcity 논의 |
경제학자들은 AGI 전환을 여러 시나리오로 모델링합니다(Korinek & Suh, 2024; Restrepo, 2025).
AGI는 시장 실패(외부성, 독점)를 초래할 수 있으므로 개입이 필수입니다.
경제학자들은 이미 활발히 연구 중입니다. NBER 2025 논문 다수, DeepMind의 경제학자 채용 등이 증거입니다. 하사비스의 지적은 타당하나, 우리는 이미 준비 중입니다.
AGI는 인류 역사상 가장 큰 경제 변혁이 될 수 있습니다. 잘 관리하면 초잉여 사회로 인도해 빈곤·질병을 종식시킬 수 있지만, 잘못하면 불평등과 혼란을 초래합니다. 경제학자로서 강조하건대, 기술 결정론이 아닌 인간 중심 정책이 핵심입니다. 2030년대 AGI 도착을 가정하고 지금부터 준비해야 합니다.
서론: UBI의 개념과 배경
보편적 기본소득(Universal Basic Income, UBI)은 모든 시민에게 조건 없이 정기적으로 현금을 지급하는 정책입니다. 소득 수준, 취업 여부, 지출 용도에 제한이 없으며, 주로 월별 또는 연별로 지급됩니다. 2025년 말 현재, 전 세계적으로 완전한 국가 차원의 UBI는 구현되지 않았으나, 수백 건의 파일럿 프로그램이 진행 중입니다. 이는 AI·자동화로 인한 일자리 상실 우려와 팬데믹 후 불평등 심화가 배경입니다. Andrew Yang(미국 민주당 대선 후보 시절 'Freedom Dividend' 제안), Sam Altman(OpenAI CEO), Elon Musk 등이 지지하며, AGI 시대의 '안전망'으로 주목받고 있습니다.
| 항목 | 장점 (Pros) | 단점 (Cons) | 주요 증거 (2025년 기준) |
|---|---|---|---|
| 빈곤·불평등 완화 | 빈곤율 급감, 식량·주거 안정화 | 취약계층(장애인 등) 기존 복지 축소 시 악화 가능 | 케냐·스톡턴 파일럿: 빈곤 감소, 정신건강 개선 |
| 정신건강·웰빙 | 스트레스·우울 감소, 삶의 만족도 상승 | 장기적으로 '의미 상실' 가능성 | 핀란드·미국 다수 파일럿: 불안·우울증 ↓ |
| 노동 시장 | 창업·위험 감수 증가, 교육 투자 촉진 | 노동 참여율 약간 하락 (2~5%) 가능 | 케냐: 기업 창업 ↑, 핀란드: 취업률 변화 미미 |
| 경제 성장 | 소비 증가로 GDP 자극, 행정 비용 절감 | 인플레이션 유발 가능, 재정 부담 막대 | 알래스카: 경제 안정화, 비용 추정: 미국 $3조 이상 |
| 사회적 효과 | 범죄 감소, 사회 결속 강화 | '무료 돈' 오해로 정치적 반발 | 미국 도시 파일럿: 범죄 ↓, 신뢰 ↑ |
| 프로그램 | 기간·규모 | 주요 결과 (2025년 기준) | 출처 |
|---|---|---|---|
| 핀란드 (2017~2018) | 2,000명 실업자, 월 €560 | 취업률 변화 미미, 스트레스 ↓, 삶 만족도 ↑ | KELA 보고서 |
| 스톡턴 (미국, SEED) | 125명, 월 $500 (2년) | 식료·빚 상환 중심 지출, 정신건강 개선, 풀타임 취업 ↑ | Stanford Lab |
| 케냐 (GiveDirectly) | 수만 명, 장기/일시 지급 | 기업 창업 ↑, 영양·건강 개선, 빈곤 감소 | 2025년 중간 보고 |
| 알래스카 Permanent Fund | 주민 전원, 연 배당금 | 빈곤 완화, 경제 안정화 | 장기 데이터 |
| 카탈로니아 (스페인) | 5,000명, 월 €800~900 (2024~) | 2026년 평가 예정, 초기 긍정적 기대 | 정부 계획 |
| 미국 도시 파일럿 (136건) | 다양한 (월 $500~1,000) | 정신건강·금전 안정 ↑, 노동 참여 미미 감소 | Guaranteed Income Dashboard |
AGI가 2030년대 도착할 경우 대규모 실업 가능성으로 UBI가 '필수 안전망'으로 논의됩니다. Sam Altman·Elon Musk 지지: AI 생산성 폭발로 풍요 공유 필요. 그러나 단독 해결책 아님 – 교육 재훈련, 자원 기반 경제(RBE) 병행 제안. 2025년 논의: 'Deflationary UBI' 등 창의적 모델 등장, 그러나 재정·인플레이션 리스크 지속.
UBI는 빈곤 완화·웰빙 향상에 효과적임이 실증되지만, 비용·노동 의욕 문제가 과제입니다. AGI 시대에 '인간 중심 사회 계약'으로 진화할 잠재력 크며, 균형 잡힌 설계가 핵심입니다. UBI는 위기가 아닌 기회의 정책이 될 수 있습니다!
구글 연구팀(Ashish Vaswani 등 8명)이 2017년 발표한 논문 "Attention Is All You Need"는 현대 AI 혁명의 기반이 된 획기적인 작업입니다. 이 논문은 기존 RNN(Recurrent Neural Network)이나 CNN(Convolutional Neural Network)을 사용하던 시퀀스 처리 모델의 한계를 극복하고, 오직 Attention 메커니즘만으로 구성된 Transformer 아키텍처를 제안했습니다.
이 논문은 BERT, GPT 시리즈, Stable Diffusion, Sora 등 대부분 현대 LLM과 생성 AI의 기반이 되었습니다. Transformer는 NLP를 넘어 컴퓨터 비전(ViT), 멀티모달 AI까지 확장되었습니다.
Transformer는 AI 붐의 촉매로 작용해 생산성 향상, GDP 성장 기여, 새로운 산업 창출을 가져왔습니다. 2025년 현재 AI(특히 Transformer 기반 생성 AI)는 경제의 주요 동력입니다.
생산성 및 GDP 영향:
산업별 영향:
전체 경제 구조 변화:
Transformer 논문은 AI를 '실험실 기술'에서 '경제 엔진'으로 바꾼 전환점입니다. 2025년 말, AI는 여전히 초기 단계지만, Transformer 덕분에 산업 혁명급 변화가 가속화되고 있습니다. 미래에는 더 큰 풍요(또는 불균형)를 가져올 핵심 기술입니다!
BERT는 Google 연구팀이 2018년 10월 발표한 언어 모델로, Bidirectional Encoder Representations from Transformers의 약자입니다. 기존 언어 모델들이 텍스트를 한 방향(왼쪽→오른쪽 또는 오른쪽→왼쪽)으로만 처리하던 한계를 극복하고, 양방향(bidirectional) 컨텍스트를 동시에 고려하여 단어의 의미를 더 깊이 이해하는 혁신적인 모델입니다. Transformer의 Encoder 부분만 사용한 encoder-only 아키텍처를 기반으로 하며, 대량의 비지도 학습 데이터를 통해 사전 훈련(pre-training)된 후 다양한 NLP 작업에 fine-tuning으로 적용됩니다.
BERT는 두 가지 주요 버전으로 출시되었습니다:
| 모델 | 레이어 수 (L) | Hidden Size (H) | Attention Heads | 파라미터 수 |
|---|---|---|---|---|
| BERT Base | 12 | 768 | 12 | 110M |
| BERT Large | 24 | 1024 | 16 | 340M |
BERT는 Transformer 시대를 연 핵심 모델로, 현대 LLM(GPT 시리즈 등)의 기반을 마련했습니다. NLP의 "전기 혁명" 같은 존재로 평가받으며, 2025년에도 여전히 중요한 참조점입니다!