AGIeconomy

탁가이버·2025년 12월 25일

Report

목록 보기
14/16

인공 일반 지능(AGI)이 경제와 사회에 미칠 영향

서론: 데미스 하사비스의 지적과 경제학의 역할

Google DeepMind CEO 데미스 하사비스는 최근 인터뷰와 발언에서 AGI(Artificial General Intelligence, 인간 수준의 모든 인지 작업을 수행할 수 있는 AI)가 5~10년 내 도착할 가능성을 강조하며, 성공 시 "초잉여 사회(radical abundance)"를 가져올 수 있다고 예측했습니다. 그는 이로 인해 자본주의 시스템, 화폐의 역할, 기업의 개념 자체가 재고되어야 하며, 경제학자들이 이 문제를 더 적극적으로 연구해야 한다고 지적했습니다. 실제로 2025년 말 현재, DeepMind은 "post-AGI 경제"를 탐구하기 위해 전문 경제학자를 채용 중이며, 이는 AGI의 잠재적 변혁성을 인정하는 신호입니다.

기술 혁신과 경제 성장을 연구해온 필자는 이 주제를 심도 있게 분석합니다. AGI는 일반 목적 기술(GPT)로서 과거 전기나 컴퓨터처럼 경제를 재편할 수 있지만, 그 속도와 규모가 훨씬 클 수 있습니다. 그러나 불확실성이 크며, 경제학자들은 이미 이 분야를 활발히 연구 중입니다(NBER, MIT, OECD 등). 아래에서 긍정적·부정적 영향, 시나리오, 정책 제안을 균형 있게 검토하겠습니다.

AGI의 경제적 영향: 주요 메커니즘

AGI는 생산성을 폭발적으로 높일 수 있습니다. 인간 노동을 완전히 대체하거나 보완하면, 총요소생산성(TFP)이 급증하고 GDP 성장률이 기존 2~3%에서 수십 %로 상승할 가능성이 있습니다.

영향 영역긍정적 효과부정적/위험 효과주요 연구 출처 (2025년 기준)
생산성 및 성장AI 자동화로 비용 절감, 혁신 가속 (신약 개발 10배 빨라짐)초기 투자 과열로 버블 발생 가능Acemoglu (2025), Korinek & Suh (2024)
노동 시장새로운 직업 창출 (AI 관리·윤리 전문가)대규모 실업 (입문직 50% 사라질 수 있음)Restrepo (2025), Amodei 예측
불평등풍요 공유 시 빈곤 감소소득 집중 (AGI 소유자 독점)Brynjolfsson et al. (2025)
사회 구조여가 시간 증가, 창의적 활동 확대의미 상실, 사회 불안정Hassabis 발언, Post-scarcity 논의
  • 긍정적 시나리오: AGI가 "풍요의 시대"를 열어 희소성(scarcity)이 사라집니다. Goldman Sachs 등은 AI가 10년 내 글로벌 GDP 7% 증가시킬 수 있다고 추정하나, AGI 수준이라면 훨씬 더 큽니다.
  • 부정적 시나리오: 노동 대체로 실업률 10~20% 상승, 임금 하락. Acemoglu(2025)는 다음 10년 AI 생산성 효과를 1% 미만으로 modest하게 봅니다.

앞으로 주목해야 할 시나리오

경제학자들은 AGI 전환을 여러 시나리오로 모델링합니다(Korinek & Suh, 2024; Restrepo, 2025).

  • 긍정 시나리오 (풍요 사회, 확률 30~50%): AGI가 과학·의료 혁신을 가속화해 생산 비용 제로화. UBI(Universal Basic Income)나 공유 경제로 풍요 분배. 성장률 10% 이상, 인간은 창의·여가 중심 생활.
  • 중간 시나리오 (가장 유력): 점진적 자동화로 성장 3~5% 증가하나, 불평등 심화. 새로운 직업 창출되지만 전환 비용 크다. 현재 AI 영향처럼 (2024년 GDP 0.5% 기여).
  • 최악 시나리오 (확률 20% 미만): AGI 독점으로 권력 집중, 대규모 실업·사회 혼란. "싱귤러리티" 없이도 불안정.

정책 제안: 경제학자의 관점

AGI는 시장 실패(외부성, 독점)를 초래할 수 있으므로 개입이 필수입니다.

  1. UBI 또는 기본 소득: 실업 완충. 파일럿(Stockton 등)에서 긍정적 효과 관찰. AGI 세금(로봇 tax)으로 재원 조달.
  2. 재교육 및 새로운 사회 계약: 평생 학습 지원, AGI 혜택 공유(미국 Equity Fund 제안처럼).
  3. 규제와 국제 협력: AGI 개발 안전성 확보, 독점 방지.
  4. 경제 지표 재정의: GDP 외에 여가·웰빙 측정.

경제학자들은 이미 활발히 연구 중입니다. NBER 2025 논문 다수, DeepMind의 경제학자 채용 등이 증거입니다. 하사비스의 지적은 타당하나, 우리는 이미 준비 중입니다.

마치며

AGI는 인류 역사상 가장 큰 경제 변혁이 될 수 있습니다. 잘 관리하면 초잉여 사회로 인도해 빈곤·질병을 종식시킬 수 있지만, 잘못하면 불평등과 혼란을 초래합니다. 경제학자로서 강조하건대, 기술 결정론이 아닌 인간 중심 정책이 핵심입니다. 2030년대 AGI 도착을 가정하고 지금부터 준비해야 합니다.

보편적 기본소득(UBI) 정책 상세 분석: 2025년 말 기준

서론: UBI의 개념과 배경

보편적 기본소득(Universal Basic Income, UBI)은 모든 시민에게 조건 없이 정기적으로 현금을 지급하는 정책입니다. 소득 수준, 취업 여부, 지출 용도에 제한이 없으며, 주로 월별 또는 연별로 지급됩니다. 2025년 말 현재, 전 세계적으로 완전한 국가 차원의 UBI는 구현되지 않았으나, 수백 건의 파일럿 프로그램이 진행 중입니다. 이는 AI·자동화로 인한 일자리 상실 우려와 팬데믹 후 불평등 심화가 배경입니다. Andrew Yang(미국 민주당 대선 후보 시절 'Freedom Dividend' 제안), Sam Altman(OpenAI CEO), Elon Musk 등이 지지하며, AGI 시대의 '안전망'으로 주목받고 있습니다.

UBI의 장점과 단점

항목장점 (Pros)단점 (Cons)주요 증거 (2025년 기준)
빈곤·불평등 완화빈곤율 급감, 식량·주거 안정화취약계층(장애인 등) 기존 복지 축소 시 악화 가능케냐·스톡턴 파일럿: 빈곤 감소, 정신건강 개선
정신건강·웰빙스트레스·우울 감소, 삶의 만족도 상승장기적으로 '의미 상실' 가능성핀란드·미국 다수 파일럿: 불안·우울증 ↓
노동 시장창업·위험 감수 증가, 교육 투자 촉진노동 참여율 약간 하락 (2~5%) 가능케냐: 기업 창업 ↑, 핀란드: 취업률 변화 미미
경제 성장소비 증가로 GDP 자극, 행정 비용 절감인플레이션 유발 가능, 재정 부담 막대알래스카: 경제 안정화, 비용 추정: 미국 $3조 이상
사회적 효과범죄 감소, 사회 결속 강화'무료 돈' 오해로 정치적 반발미국 도시 파일럿: 범죄 ↓, 신뢰 ↑
  • 장점 중심 실증: 2025년 Stanford Basic Income Lab 데이터에 따르면, 미국 18개 주·136개 파일럿 중 대부분 정신건강 개선·금전 스트레스 감소 보고. 케냐 GiveDirectly(장기 UBI): 기업 창업·교육 투자 증가, 알코올 소비 미증가.
  • 단점 중심: 노동 공급 2.6% 감소 가능(GDP 1.3% ↓ 추정), 재정 비용 막대(미국 풀 UBI: 연 $3~4조).

주요 파일럿 프로그램 실증 결과 (2025년 업데이트)

프로그램기간·규모주요 결과 (2025년 기준)출처
핀란드 (2017~2018)2,000명 실업자, 월 €560취업률 변화 미미, 스트레스 ↓, 삶 만족도 ↑KELA 보고서
스톡턴 (미국, SEED)125명, 월 $500 (2년)식료·빚 상환 중심 지출, 정신건강 개선, 풀타임 취업 ↑Stanford Lab
케냐 (GiveDirectly)수만 명, 장기/일시 지급기업 창업 ↑, 영양·건강 개선, 빈곤 감소2025년 중간 보고
알래스카 Permanent Fund주민 전원, 연 배당금빈곤 완화, 경제 안정화장기 데이터
카탈로니아 (스페인)5,000명, 월 €800~900 (2024~)2026년 평가 예정, 초기 긍정적 기대정부 계획
미국 도시 파일럿 (136건)다양한 (월 $500~1,000)정신건강·금전 안정 ↑, 노동 참여 미미 감소Guaranteed Income Dashboard
  • 공통 패턴: 대부분 프로그램에서 노동 의욕 저하 없음(또는 미미), 정신건강·금전 안정 크게 개선. 인플레이션·알코올 남용 우려 기우로 판명.

AGI 시대 UBI의 역할

AGI가 2030년대 도착할 경우 대규모 실업 가능성으로 UBI가 '필수 안전망'으로 논의됩니다. Sam Altman·Elon Musk 지지: AI 생산성 폭발로 풍요 공유 필요. 그러나 단독 해결책 아님 – 교육 재훈련, 자원 기반 경제(RBE) 병행 제안. 2025년 논의: 'Deflationary UBI' 등 창의적 모델 등장, 그러나 재정·인플레이션 리스크 지속.

정책 제안과 전망

  1. 파일럿 확대: 미국·유럽처럼 지역 파일럿 통해 데이터 축적.
  2. 재원 조달: AI 기업 세금, 자원 배당금, 기존 복지 통합.
  3. 보완 정책: UBI + 재교육 + 정신건강 지원.
  4. 전망: 2025년 말 기준 완전 UBI 도입 국가 없으나, AGI 가속화로 2030년대 본격 논의 예상.

마치며

UBI는 빈곤 완화·웰빙 향상에 효과적임이 실증되지만, 비용·노동 의욕 문제가 과제입니다. AGI 시대에 '인간 중심 사회 계약'으로 진화할 잠재력 크며, 균형 잡힌 설계가 핵심입니다. UBI는 위기가 아닌 기회의 정책이 될 수 있습니다!

트랜스포머 논문 요약: "Attention Is All You Need" (2017)

구글 연구팀(Ashish Vaswani 등 8명)이 2017년 발표한 논문 "Attention Is All You Need"는 현대 AI 혁명의 기반이 된 획기적인 작업입니다. 이 논문은 기존 RNN(Recurrent Neural Network)이나 CNN(Convolutional Neural Network)을 사용하던 시퀀스 처리 모델의 한계를 극복하고, 오직 Attention 메커니즘만으로 구성된 Transformer 아키텍처를 제안했습니다.

주요 아이디어와 핵심 포인트

  • 문제 인식: 기존 seq2seq 모델(예: 기계 번역)은 RNN 기반으로 순차적으로 처리되어 병렬화가 어렵고, 장거리 의존성(long-range dependencies)을 포착하지 못했습니다.
  • 제안: Transformer는 recurrence(순환)와 convolution을 완전히 버리고, Self-Attention 메커니즘만 사용합니다. 이는 입력 시퀀스의 모든 위치를 동시에 고려해 관계를 계산합니다.
  • 핵심 구성 요소:
    • Scaled Dot-Product Attention: Query(Q), Key(K), Value(V) 벡터를 사용해 attention 점수를 계산. (점수 = Q·K^T / √d_k, softmax 후 V와 곱함)
    • Multi-Head Attention: 여러 헤드로 병렬 attention 계산 → 다양한 관점에서 관계 포착.
    • Positional Encoding: 순서 정보가 없는 attention에 사인/코사인 함수로 위치 정보 추가.
    • Encoder-Decoder 구조: Encoder(입력 처리), Decoder(출력 생성) 스택으로 구성. Feed-Forward Network와 Layer Normalization 포함.
  • 장점: 병렬 처리 가능 → 훈련 속도 대폭 향상(기존 모델 대비 비용 적음). 장거리 의존성 잘 처리.
  • 실험 결과: WMT 2014 영-프 번역에서 BLEU 41.8 (당시 SOTA), 영-독 번역에서도 최고 성능. 영어 구문 분석(parsing)에도 일반화 잘 됨.

이 논문은 BERT, GPT 시리즈, Stable Diffusion, Sora 등 대부분 현대 LLM과 생성 AI의 기반이 되었습니다. Transformer는 NLP를 넘어 컴퓨터 비전(ViT), 멀티모달 AI까지 확장되었습니다.

현 경제에 미친 영향 (2025년 말 기준)

Transformer는 AI 붐의 촉매로 작용해 생산성 향상, GDP 성장 기여, 새로운 산업 창출을 가져왔습니다. 2025년 현재 AI(특히 Transformer 기반 생성 AI)는 경제의 주요 동력입니다.

  • 생산성 및 GDP 영향:

    • Transformer 기반 LLM(GPT 등)은 소프트웨어 개발, 콘텐츠 생성, 고객 서비스 등에서 생산성을 20~50% 높임.
    • 2025년 미국 GDP 성장 중 AI 관련 투자(데이터센터, 소프트웨어)가 37% 기여 (EY 분석: 상반기 1ppt 성장 촉진).
    • Penn Wharton 추정: 생성 AI가 2035년까지 GDP 1.5% 추가, 장기적으로 3~4% 누적 상승.
    • 글로벌: AI 누적 경제 효과 2030년까지 $19.9조 (Converge Technology), Transformer가 핵심 기술.
  • 산업별 영향:

    • 테크 기업 폭발적 성장: NVIDIA(Transformer 훈련용 GPU), Google, OpenAI 등 시총 급증. 2025년 AI 관련 주식(S&P 500)이 시장 1/3 차지.
    • 신약 개발·의료: AlphaFold(Transformer 기반)로 단백질 구조 예측 혁신 → 제약 비용 50~80% 절감.
    • 노동 시장: 일부 일자리 자동화(입문직 5~10% 영향), 하지만 창의적·AI 관리 직업 창출. 2025년 AI 사용자 생산성 1~3% ↑ (설문 데이터).
  • 전체 경제 구조 변화:

    • 초기 투자 붐(데이터센터 $400B 규모)으로 성장 촉진, 하지만 불평등 확대 우려(소득 집중).
    • Fed 등 중앙은행: AI 생산성 상승으로 인플레이션 완화 기대, 금리 정책 영향.

Transformer 논문은 AI를 '실험실 기술'에서 '경제 엔진'으로 바꾼 전환점입니다. 2025년 말, AI는 여전히 초기 단계지만, Transformer 덕분에 산업 혁명급 변화가 가속화되고 있습니다. 미래에는 더 큰 풍요(또는 불균형)를 가져올 핵심 기술입니다!

BERT 모델 개요: Bidirectional Encoder Representations from Transformers

BERT는 Google 연구팀이 2018년 10월 발표한 언어 모델로, Bidirectional Encoder Representations from Transformers의 약자입니다. 기존 언어 모델들이 텍스트를 한 방향(왼쪽→오른쪽 또는 오른쪽→왼쪽)으로만 처리하던 한계를 극복하고, 양방향(bidirectional) 컨텍스트를 동시에 고려하여 단어의 의미를 더 깊이 이해하는 혁신적인 모델입니다. Transformer의 Encoder 부분만 사용한 encoder-only 아키텍처를 기반으로 하며, 대량의 비지도 학습 데이터를 통해 사전 훈련(pre-training)된 후 다양한 NLP 작업에 fine-tuning으로 적용됩니다.

주요 특징

  • 양방향성(Bidirectionality): 문장의 모든 단어를 동시에 보고 좌우 컨텍스트를 모두 학습. 이는 단어의 다의성(예: "bank"가 은행인지 강둑인지)을 정확히 파악하는 데 강력합니다.
  • Pre-training 방법:
    • Masked Language Modeling (MLM): 입력 문장의 15% 토큰을 [MASK]로 가리고 원래 단어를 예측.
    • Next Sentence Prediction (NSP): 두 문장이 주어졌을 때, 다음 문장인지 아닌지 예측 (후속 모델들에서 NSP는 종종 제거됨).
  • 입력 표현: 특수 토큰 CLS, [SEP] (문장 분리), WordPiece 토큰화 사용.

모델 규모 및 아키텍처

BERT는 두 가지 주요 버전으로 출시되었습니다:

모델레이어 수 (L)Hidden Size (H)Attention Heads파라미터 수
BERT Base1276812110M
BERT Large24102416340M
  • Transformer Encoder 스택으로 구성: Multi-Head Self-Attention + Feed-Forward Network.
  • 사전 훈련 데이터: English Wikipedia (2,500M 단어) + BookCorpus (800M 단어).

작동 방식

  1. Pre-training: 대량 텍스트로 MLM과 NSP 학습 → 일반적인 언어 이해 능력 획득.
  2. Fine-tuning: downstream task(예: 감정 분석, 질의응답)에 추가 레이어 붙여 소량 라벨 데이터로 미세 조정 → SOTA 성능 달성.

영향 및 현재 상태 (2025년 말 기준)

  • 혁신적 영향: 2018년 발표 당시 SQuAD, GLUE 등 11개 NLP 벤치마크에서 SOTA 기록. Transformer 기반 모델의 표준을 세우며 NLP 패러다임을 "pre-train + fine-tune"으로 바꿈.
  • 경제·산업 영향: 검색 엔진(Google Search 개선), 챗봇, 번역, 감정 분석 등에 광범위 적용 → 생산성 향상과 AI 산업 성장 촉진.
  • 후속 발전: RoBERTa, DistilBERT, ALBERT 등 변형 등장. 2025년에는 ModernBERT처럼 더 효율적이고 긴 시퀀스(8192 토큰) 처리 가능한 encoder-only 모델이 BERT의 후속으로 주목받음. BERT 자체는 여전히 검색·분류 작업에서 강력하며, Hugging Face 등에서 쉽게 사용 가능.

BERT는 Transformer 시대를 연 핵심 모델로, 현대 LLM(GPT 시리즈 등)의 기반을 마련했습니다. NLP의 "전기 혁명" 같은 존재로 평가받으며, 2025년에도 여전히 중요한 참조점입니다!

profile
더 나은 세상은 가능하다를 믿고 실천하는 활동가

0개의 댓글