나무모에 미러 (일반/어두운 화면)
최근 수정 시각 : 2024-12-22 21:53:11

인공지능

AI에서 넘어옴


파일:나무위키+유도.png  
AI은(는) 여기로 연결됩니다.
동음이의어에 대한 내용은 AI(동음이의어) 문서
번 문단을
부분을
, 에 대한 내용은 문서
번 문단을
번 문단을
부분을
부분을
, 에 대한 내용은 문서
번 문단을
번 문단을
부분을
부분을
, 에 대한 내용은 문서
번 문단을
번 문단을
부분을
부분을
, 에 대한 내용은 문서
번 문단을
번 문단을
부분을
부분을
, 에 대한 내용은 문서
번 문단을
번 문단을
부분을
부분을
, 에 대한 내용은 문서
번 문단을
번 문단을
부분을
부분을
, 에 대한 내용은 문서
번 문단을
번 문단을
부분을
부분을
, 에 대한 내용은 문서
번 문단을
번 문단을
부분을
부분을
, 에 대한 내용은 문서
번 문단을
번 문단을
부분을
부분을
참고하십시오.
인공지능 관련 틀
[ 펼치기 · 접기 ]
----
인공지능
인공지능기계학습인공신경망딥 러닝
인공지능 - 인공지능 구현을 위한 몇 가지 기술이 존재한다.
기계학습 - 많은 매개변수를 넣어주면 모델이 스스로 규칙을 학습하는 방식의 인공지능 구현 방법이다.
인공신경망 - 인간의 뉴런 구조를 본떠 만든 기계 학습 방법론이다.
딥 러닝 - 입력층과 출력층 사이에 있는 은닉층에 인공 뉴런을 여러 겹 쌓고 연결한 인공신경망 방법론 중 하나이다. 즉, 단일층이 아닌 실제 뇌처럼 다층 구조로 되어있다. 21세기에 와서는 (인공신경망=딥러닝)이라고 이해해도 무방하다.
인지 컴퓨팅 - 기계학습을 이용하여 특정한 인지적 과제를 해결할 수 있는 프로그램 또는 솔루션을 이야기한다.
뉴로모픽 컴퓨팅 - 인공 신경망을 하드웨어적으로 구현한 것이라고 생각하면 된다.

'''이론 컴퓨터 과학
{{{#!wiki style="display: inline-block; font-family:Times New Roman, serif;font-style:italic"'''
{{{#!wiki style="margin: 0 -10px -5px; min-height: calc(1.5em + 5px)"
{{{#!folding [ 펼치기 · 접기 ]
{{{#!wiki style="margin: -5px -1px -11px"
<colbgcolor=#a36> 이론
기본 대상 수학기초론{수리논리학(논리 연산) · 계산 가능성 이론 · 범주론 · 집합론} · 이산수학(그래프 이론) · 수치해석학 · 확률론통계학 · 선형대수학
다루는 대상과 주요 토픽
계산 가능성 이론 재귀함수 · 튜링 머신 · 람다대수 · 처치-튜링 명제 · 바쁜 비버
오토마타 이론 FSM · 푸시다운 · 튜링 머신(폰노이만 구조) · 정규 표현식 · 콘웨이의 생명 게임 · 형식언어
계산 복잡도 이론 점근 표기법 · 튜링 기계^고전, 양자, 비결정론적, 병렬 임의접근 기계^ · 알고리즘 · 자료구조 · 알고리즘 패러다임(그리디 알고리즘, 동적 계획법)
정보이론 데이터 압축(무손실 압축 포맷 · 손실 압축 포맷) · 채널 코딩(채널 용량) · 알고리즘 정보 이론(AIT) · 양자정보과학
프로그래밍 언어이론 프로그래밍 언어(함수형 언어 · 객체 지향 프로그래밍 · 증명보조기) · 메타 프로그래밍 · 유형 이론 · 프로그래밍 언어 의미론 · 파싱 · 컴파일러 이론
주요 알고리즘 및 자료구조
기초 정렬 알고리즘 · 순서도 · 탐색 알고리즘
추상적 자료형 및 구현 배열^벡터^ · 리스트^연결 리스트^ · 셋(set)^레드-블랙 트리, B-트리^ · 우선순위 큐^, 피보나치 힙^
수학적 최적화 조합 최적화 외판원 순회 문제 · 담금질 기법 · 유전 알고리즘 · 기계학습
볼록 최적화 내부점 방법 · 경사하강법
선형계획법 심플렉스법
계산 수론 및 암호학 밀러-라빈 소수판별법 · Pollard-rho 알고리즘 · 쇼어 알고리즘 · LLL 알고리즘 · 해시(MD5 · 암호화폐 · 사전 공격(레인보우 테이블) · SHA) · 양자 암호
대칭키 암호화 방식 블록 암호 알고리즘(AES · ARIA · LEA · Camellia) · 스트림 암호 알고리즘(RC4)
공개키 암호화 방식 공개키 암호 알고리즘(타원 곡선 암호 · RSA) · 신원 기반 암호 알고리즘(SM9)
계산기하학 볼록 껍질 · 들로네 삼각분할 및 보로노이 도형^Fortune의 line-sweeping 알고리즘^ · 범위 탐색^vp-tree, R-tree^ · k-NN
그래프 이론 탐색^BFS, DFS, 다익스트라 알고리즘, A* 알고리즘^ · 에드몬드-카프 · 크루스칼 알고리즘 · 위상 정렬 · 네트워크 이론
정리
정지 문제대각선 논법 · 암달의 법칙 · P-NP 문제미해결 · 콜라츠 추측미해결
틀:이산수학 · 틀:수학기초론 · 틀:컴퓨터공학 }}}}}}}}}



[[컴퓨터공학|컴퓨터 과학 & 공학
Computer Science & Engineering
]]
[ 펼치기 · 접기 ]
||<tablebgcolor=#fff,#1c1d1f><tablecolor=#373a3c,#ddd><colbgcolor=#0066DC><colcolor=white> 기반 학문 ||수학(해석학 · 이산수학 · 수리논리학 · 선형대수학 · 미적분학 · 미분방정식 · 대수학(환론 · 범주론) · 정수론) · 이론 컴퓨터 과학 · 암호학 · 전자공학 · 언어학(형태론 · 통사론 · 의미론 · 화용론 · 음운론) · 인지과학 ||
하드웨어 구성 SoC · CPU · GPU(그래픽 카드 · GPGPU) · ROM · RAM · SSD · HDD · 참조: 틀:컴퓨터 부품
기술 기계어 · 어셈블리어 · C/C++ · C# · Java · Python · BIOS · 절차적 프로그래밍 · 객체 지향 프로그래밍 · 해킹 · ROT13 · 일회용 비밀번호 · 사물인터넷 · 와이파이 · GPS · 임베디드 · 인공신경망 · OpenGL · EXIF · 마이크로아키텍처 · ACPI · UEFI · NERF · gRPC · 리버스 엔지니어링 · HCI · UI · UX · 대역폭 · DBMS · NoSQL · 해시(SHA · 브루트 포스 · 레인보우 테이블 · salt · 암호화폐) · RSA 암호화 · 하드웨어 가속
연구

기타
논리 회로(보수기 · 가산기 · 논리 연산 · 불 대수 · 플립플롭) · 정보이론 · 임베디드 시스템 · 운영 체제 · 데이터베이스 · 프로그래밍 언어{컴파일러(어셈블러 · JIT) · 인터프리터 · 유형 이론 · 파싱 · 링커 · 난해한 프로그래밍 언어} · 메타데이터 · 기계학습 · 빅데이터 · 폰노이만 구조 · 양자컴퓨터 · 행위자 모델 · 인코딩(유니코드 · MBCS) · 네트워크 · 컴퓨터 보안 · OCR · 슈퍼컴퓨터 · 튜링 머신 · FPGA · 딥러닝 · 컴퓨터 구조론 · 컴퓨터 비전 · 컴퓨터 그래픽스 · 인공지능 · 시간 복잡도(최적화) · 소프트웨어 개발 방법론 · 디자인 패턴 · 정보처리이론 · 재귀 이론 · 자연어 처리(기계 번역 · 음성인식) · 버전 (버전 관리 시스템 · Git · GitHub)

1. 개요2. 역사
2.1. 기존 역사2.2. 생성형 인공지능의 시대
3. 단계4. 접근법 및 현황
4.1. 접근법4.2. 정확성을 위한 불확정성
4.2.1. 환각 현상
4.3. 연구 현황4.4. 기술 개발 현황4.5. 에너지 사용 및 한계4.6. AGI의 출현 가능성과 미래에 대한 담론
5. 장단점
5.1. 논란5.2. 인공지능의 생명과 감정감별
5.2.1. 인공지능도 의식을 가질 수 있는가
6. 평가7. 대중매체8. 여담9. 관련 문서
9.1. 관련 언어
<nopad>
A.I. - 인류 최후의 발명품?[1]

1. 개요

인공지능(, Artificial Intelligence; AI)은 인간의 지능이 가지는 학습, 추리, 적응, 논증 따위의 기능을 갖춘 컴퓨터 시스템을 의미한다.

인간의 학습능력, 추론능력, 지각능력을 인공적으로 구현시키는 컴퓨터과학의 하위 분야로, 인간의 지능을 기계 등에 인공적으로 구현한 것이다. 일반적으로 범용 컴퓨터에 적용한다고 가정한다. 혹은 이와 같은 지능을 만들 수 있는 방법론이나 실현 가능성 등을 연구하는 과학 기술 분야를 지칭하는 표현이기도 하다.

2. 역사

2.1. 기존 역사

17~18세기부터 인공지능이 태동하고 있었지만, 이때는 인공지능 그 자체보다는 와 마음의 관계에 관한 철학적인 논쟁 수준에 머물렀다. 그럴 수 밖에 없는 것이 당시에는 인간의 뇌 말고는 정보처리기계가 존재하지 않았기 때문이다.

그러나 시간이 흘러 1943년에 신경과학 연구원이던 워런 매컬러와 월커 피츠가 '매컬러-피츠 모델'을 통해 이진법 기반으로 인간 뉴런의 작동 원리를 제시하며 처음으로 모델 구축에 대한 구체적 아이디어가 등장했다.# 이후 1947년에 트랜지스터가 상용화되고 컴퓨터의 발전으로 혁신의 물줄기가 터지기 시작하면서 컴퓨터로 두뇌를 만들어서 우리가 하는 일을 시킬 수 있지 않을까? 라는 의견이 제시되었고 많은 사람들 또한 그럴싸 하게 여기면서 빠른 속도로 인공지능은 학문의 영역으로 들어서기 시작했다.

인공지능(AI, artificial intelligence)이라는 용어가 처음 등장한 때는 1955년 8월 31일에 미국 다트머스 대학교에서 마빈 민스키, 클로드 섀넌 등 인공지능 및 정보 처리 이론에 지대한 공헌을 한 사람들이 개최한 학회에서 존 매카시가 이 용어를 사용하면서부터이다. 특히 마빈 민스키는 최초로 회로화된 신경망인 SNARC라는 시스템을 구축했다.[2]

그리고 당연하지만 이런 일에 관심을 가진건 서방뿐만이 아니어서, 소련 역시 아나톨리 키토프 박사가 본인의 저서 "붉은 서"에서 "ЕГСВЦ(Единой централизованной автоматизированной системы управления народным хозяйством страны - 국가(계획)경제 네트워크 중심적 통제체계)" 라는 것을 제시하였는데, 이는 컴퓨터 네트워크화를 통한 더 나은 계획 경제 체제와 사회의 추구를 목표로 삼은 이론이었다. 이것을 소련 컴퓨터 과학자 빅토르 글루시코프가 더욱 개량한 것이 바로 OGAS(ОГАС - Общегосударственная автоматизированная система учёта и обработки информации, 전연방자동정보처리체계) 계획이다.

20세기 중반에도 인공지능 연구는 자연어처리나 복잡한 수학 문제를 해결하는 등 정말로 인간만이 할 수 있는 영역에 있던 문제들도 컴퓨터로 착착 해결할 수 있었던 상당히 혁신적인 연구였으며, 많은 관심을 받고 지속적으로 연구가 이루어진 분야이다. 당연히 AI 산업은 이미 1980년도에 10억불 규모의 시장을 형성할 정도로 큰 분야였으므로 과거에 이런저런 이유로 관심이 없었다던가 실용화가 되지 않았다는 것은 어불성설이다. 다만 아무래도 당시의 정보처리 능력의 한계와 정보량의 부족, 그리고 이런저런 이유로 연구자금지원이 중단되는 트러블과 특히 1969년도에 마빈 민스키와 시모어 페퍼트가 "Perceptrons"이라는 책을 출간하면서 지적한 SLP(단층 퍼셉트론)의 한계[3]로 인해 1970년대에 한동안 인기가 시들시들 하기도 했었다. 이를 “1차 AI 겨울”이라고 한다.

1974년, 폴 워보스에 의해 역전파 알고리즘이 제시 되었으며 1980년대에 MLP(다층 퍼셉트론)이 도입된다. 이후 1986년, 제프리 힌튼 교수와 로널드 윌리엄스, 데이빗 럼멜하트가 MLP와 (오차)역전파 알고리즘[4]을 증명하여 XOR 문제는 해소되었지만, 기울기 소실 문제[5] 문제로 인하여 정보처리 능력의 한계와 해소되기까지는 더 시간이 필요했다. 이에 1990년대에 다시 2차 AI 겨울이 찾아온다.

문자인식이나 음성인식등의 가시적인 성과가 있는 분야도 있었지만 대화 인공지능 등의 개발 실패 등, 눈앞의 목표를 달성하지 못하는 경우도 많았기 때문인데, 심지어 이런 부분은 수십년이 지난 현재도 극복하지 못해서 아직까지는 인간과 대화를 한다기보다는 자동 응답기에 가까운 수준이다. 이 때문에 1990년도 이후부터 인공지능의 목표는 인간지능의 구현이라는 막연히 넓은 목표에서 문제해결과 비즈니스 중심으로 더 신중하고 좁은 분야가 되었으며, 그제서야 때맞춰 나타난 하드웨어의 성장을 업고 더 성공적인 분야가 될 수 있었다.

2006년, 제프리 힌튼이 DBN(심층신뢰신경망)을 발표하며 불가능이라 여겨졌던 비지도 학습 방법이 가능해졌고, 이로 인하여 퍼셉트론이 사실상 사장되어 딥러닝이라는 방법론이 상위개념인 인공신경망이라는 명칭을 대체하며 유일하게 여겨지는 방법론으로 칭해진다. 특히 2012년에 힌튼의 제자인 알렉스 크리제브스키일리야 수츠케버가 합성곱신경망 아키텍처인 알렉스넷(AlexNet)을 구축하고 “ILSVRC”라는 컴퓨터 비전 대회에서 압도적인 퍼포먼스로 우승하자 딥러닝은 기존의 SIFT 방법론을 제치고 압도적인 대세가 된다.

2016년, 구글 딥마인드알파고가 딥러닝 방식을 대중화했으며 몇 가지 분야에서는 인간의 수준을 뛰어 넘는 결과물을 보여줬다. 특히 약인공지능 분야에서는 빠른 속도로 사람의 능력을 추월할 수 있다는 의식이 확산되었다.

2.2. 생성형 인공지능의 시대

KBS 2024 미래기획 대전환 - 1부. 누가 부자가 되는가
인공지능은 2022년 생성형 인공지능의 전후로 크게 변화되기 시작했다. 생성형 인공지능의 대표주자인 OpenAI챗GPT, 그림 AI는 실제 개인의 취미, 업무 활용에 접목되면서 꿈만 같던 AI의 실용화가 드디어 시작되었다. 이러한 생성형 인공지능의 배경엔 트랜스포머 구조가 있었다.

생성형 인공지능으로 AI에 대한 여러 담론이 활발해지고 그중 AI에 대한 경계,위협론도 생겨나기 시작했다. AI의 대부인 제프리 힌튼은 구글을 퇴사한 뒤 "기존의 AGI는 먼 미래에나 도래할 것이라는 입장을 완전히 철회한다"라는 의미심장한 발언을 남겼다.

여담으로 2023년 OpenAI가 출시한 GPT-4와 같은 LLM에 대해 과학자들은 추상적으로 '이런 식으로 작동할 것이다' 라고 추측만 할 뿐, 사실 그 누구도 어떤 이유로 어느 순간 AGI에 버금가는 인공지능이 되는 것인지는 명확하게 밝혀내지 못하고 있다.[6]

인공지능 논란 관련 문서는 인공지능/논란 문서 참고.

3. 단계

인공지능의 단계
약인공지능 강인공지능
(인공 일반 지능, 인공 의식)
초인공지능
(인공지능 특이점)


인공지능의 단계를 묘사할 때 흔히 사용되는 용어인 약인공지능weak AI강인공지능strong AI은 1980년에 존 설John R. Searle, (1932~) 교수가 그 유명한 중국어 방 논변을 제안하면서 최초로 사용한 개념이다.

다른 곳의 문서를 보면 인간의 마음을 복잡한 정보처리로 구현한 것을 강한 인공지능, 단순히 인간의 능력 일부를 시뮬레이션 하거나 그런 작업을 목적으로 하는 것을 약한 인공지능이라고 편리하게 설명한다. 그러나 좀 더 정확하게 설명하자면 존 설 교수의 본래 의도는 인간의 마음을 컴퓨터 소프트웨어와 같은 관점으로 보고 행하는 인공지능 연구를 "강한 인공지능 연구", 반대로 인간의 마음과는 별개로 단지 유용한 도구의 개발을 위해 행하는 인공지능 연구를 "약한 인공지능 연구"로 정의하여 철학적 관점에서 인간의 마음을 컴퓨터와 소프트웨어와 같이 보는 연구를 비판하고자 한 것이다.

아무튼 저 개념이 묘하게 현재의 인공지능 개발현황과 의미가 적절히 맞아떨어지다보니 내용을 살짝 비틀어서 대중들에게 알려지게 되었는데 각 연구의 결과물을 그대로 대입하면 된다. 즉,

강인공지능 = 인간을 완벽하게 모방한 인공지능이고
약인공지능 = 유용한 도구로써 설계된 인공지능이라고 보면 된다.

현재까지 나온 인공지능은 모두 약인공지능으로 구분하고 있다.

4. 접근법 및 현황

4.1. 접근법

흔히 인공지능 연구의 방법론으로 가장 유명한 것은 상향식(bottom-up) 방식과 하향식(top-down) 방식이다.

상향식은 뇌의 신경망을 해석하고 화학 작용을 분석하여 뇌의 전자 모델을 만들 수 있다면 인공지능을 탄생시킬 수 있다고 보는 것이다. 따라서 뇌세포들의 기초적인 상호작용 등 뇌가 어떻게 동작하는지 조사하고 이러한 동작을 수학적으로 모델링하여 컴퓨터에서 시뮬레이션 하는 데에 초점을 둔다. 만일 이 방식에서 강한 인공지능이 탄생한다면 인간의 뇌에 가까운 구조와 동작 방식을 가질 가능성이 높다고 볼 수 있겠다. 다만 원하는 대로 시스템을 조정하는 것은 더 많은 시간을 소비할 것이다. 원하는 개체를 시뮬레이션해서 결과를 보는 것과 시뮬레이션 결과를 원하는 대로 바꾸는 것은 또 다른 문제다.

상향식 연구의 대표적인 예시로 그나마 뉴런 지도가 세세하게 밝혀져 있는 예쁜꼬마선충이 있는데 뉴런들의 연결 정보, 연결 강도를 전자적으로 유사하게 구현한 것만으로 실제 생물 같은 움직임을 구현할 수 있다는 점을 증명하는 사례가 되어주었지만 뉴런에 대한 연구가 완벽하지 못해 실제 뉴런의 동작과 약간 차이가 있어서 제대로 된 생물의 구현이라고 볼 수도 없을 뿐더러 인간의 의도가 전혀 들어가지 않아 이것을 인공지능이라고 봐야 할지도 의문이다. 예를 들면 빛을 피하게 만든다든지 꼬물거리지 않게 만든다든지... 제대로 만들지도 않았지만 그 이전에 인간이 신경계를 조작해서 의도한 결과물을 내는 것조차 안 된다. 이러면 이건 그냥 시뮬레이션일 뿐이다. 하물며 1mm 정도의 선충 연구조차도 이 정도 수준인데 훨씬 복잡하고 정교한 인간에 대한 연구는 말할 것도 없다. 2017년에는 현재 기술 수준으론 선충은 고사하고 1975년에 출시한 구닥다리 칩[7]조차 뭔가를 해보는 게 불가능하다는 논문이 나오기도 했다.

반대로 하향식은 컴퓨터는 매우 어려운 반면 인간은 쉽게 해결할 수 있는, 쉽게 말해 지능이 필요하다고 보는 작업을 알고리즘으로 해결하는데에 초점을 맞춘다. 당연히 개발 목적도 상향식에 비해서 다양해서 강인공지능의 개발이 목표일 수도 있지만 단지 문제를 효율적으로 해결하기 위해서일 수도 있다. 지금까지 인류가 연구하고 개발해낸 인공지능은 대부분 톱다운 연구로 탄생했으며 전문가 시스템부터 기계학습까지 우리 주변에 다양한 모습으로 존재하고 있다. 그리고 그나마 꽤 성과가 있는 방향이기도 하다.

현대의 인공지능 연구는 두 부분을 적절하게 엮어서 진행되어, 뉴런의 구조에 대한 원시적인 모방으로 이룬 인공신경망 구조등이 미래를 향한 길을 열고 있다.

4.2. 정확성을 위한 불확정성

현재의 인공지능은 인공신경망에 의해 이루어진다. 그리고 인공신경망이 지능이 있는 것으로 착각하게 만드는 원리는 수많은 코드(노드/계산 단위)가 각자의 계산을 수행한다는 과정에 있다.

인공지능에 어떠한 질문(신호)이 주어질 때 각 노드 별로 질문에 반응하며 다음 노드에 신호를 전달한다. 그래서 신호를 받는 개별 노드는 자신에게 주어진 편향(bias/기준치)에 따라 신호를 거르고 다시 산출하는데, 그렇게 걸러진 산출된 신호들의 총합이 바로 인공지능이 우리에게 전달하는 '대답'이 된다.

만약 모습이 일부 가려진 강아진 사진을 주고 인공지능에 이미지 속 물체가 강아지가 맞냐고 물어보자. 그러면 인공지능은 각 노드에서 자신이 가진 Bias(편향), 순화해서 말하자면, 노드 별로 기억하는 각자의 강아지 특성에 따라 사진에 대한 신호를 거른다. 만약 눈이 가려진 강아지 사진이라고 해보면, 강아지의 눈을 학습한 노드는 사진에 강아지의 눈이 없으니 잘못된 이미지(신호)라고 판단해서 해당 사진은 False(거짓/가짜/잘못된)를 의미하는 0을 출력한다. 하지만 강아지의 코, 입, 귀, 다리 등 다른 부위를 학습한 노드들은 해당 사진을 맞는 이미지라고 판단해서 True(진실/진짜/옳은)를 의미하는 1을 출력한다. 이때 눈을 제외한 다른 부위들에 의해 0보다 1의 값이 더 많이 산출되니 인공지능은 최종적으로 해당 사진에 대한 대답을 '강아지'가 맞다고 산출한다. 이러한 인공지능의 특성은 설령 질문에 오타가 있거나 중간에 잘못된 단어가 있어도 마치 사람처럼 알아서 오류를 무시하고 옳은 대답을 산출하는 데에 기여한다. 그래서 일부 전문가들은 인공지능의 대답에 대해 확률적인 대답이라고 하는 것이라고 표현하는 것이다.

또한 수학적 계산이 약한 이유가 여기에 있다. 인간이 암산 영재가 아닌 이상 도구를 사용해야만 계산에 능할 수 있고 속도도 느린데다가 중간에 실수를 해서 엉뚱한 답을 낼때도 있다. 그러나 컴퓨터는 아무리 복잡한 문제라도 수 초 내에 계산을 정확하게 해낼 수 있다. 두뇌의 연산 능력이 현존하는 모든 CPU나 GPU보다 압도적으로 뛰어나면서 계산에 약한 이유는 '매번' 주어진 신호(질문)를 여러 뉴런에 하나씩 걸쳐서 편향에 따라 신호를 걸러 최종적으로 대답을 산출하기 때문이다. 인공신경망은 이러한 인간의 계산 과정을 모방하기 때문에 수학적 계산에 취약한 것이다.

4.2.1. 환각 현상

현재 인공지능의 가장 큰 문제점 중 하나는 신뢰성이다. 신뢰성에 금이 가는 이유는 바로 '환각 현상(Hallucination)' 때문이다. 잘못된 편향이나 가중치가 주어지거나, 주어진 질문에 대한 정보가 애초에 없다면 아무런 관계가 없는 편향과 가중치가 입력된 노드까지 신호가 흘러들어가는데 이때 자칫하면 마치 없어도 있듯이, 잘못된 것이라도 맞다고 하거나, 맞아도 잘못된 것이라는 틀린 대답(정보)을 산출하는 것이다. 즉, 현재 인공지능은 스스로 자신이 아는 것과 모르는 것을 구별할 수 없다.

가령 ChatGPT에게 이순신 장군이 1980년 대에 햄버거를 얼마나 좋아했냐는 말도 안 되는 질문을 하면, 이에 맞춰 마치 실제로 1980년 대에 이순신 장군이 햄버거를 먹었다는 듯한 가짜 정보를 생산해서 답변을 한다는 것이다. 물론 현재에 와서 이런 얼토당토 않는 질문에 대해 어느 정도 대처하고 있지만[8] 이러한 잘못된 정보를 교정하는 주체는 여전히 인간이며 단 하나의 실수라도 허용되지 않는 일부 전문적인 분야에서는 인공지능의 활용이 어려울 수 밖에 없다.

인공지능을 구현하는 인공신경망의 근본적인 원리는 뉴런과 같다. 신호를 전달하는 방식에는 차이가 있으나 뉴런도 편향에 따라 신호를 걸러서 다른 뉴런에 전달하기 때문이다. 하지만 두뇌를 가진 생물이 인공신경망과 같은 편향을 잘 일으키지 않은 이유는 완벽하게 밝혀지지 않았다. 사람이 무언가를 설령 살짝 '착각'할 수는 있어도, 편집증이나 조현병이 있지 않은 이상 인공신경망처럼 아예 잘못된 대답을 진실처럼 구현하지는 않는다.[9] 그래서 이 환각 현상을 어떻게 해결해야 할지는 인공지능 연구원들 사이에서도 논쟁이 오가며[10], 확실한 실마리는 아직 찾지 못한 상태이다.

영화, 만화, 드라마 등의 SF 작품에서 인공지능은 절대적으로 믿을 만한 존재로 묘사된다. 항상 진실만을 언급하며, 누군가가 악의적인 코딩을 하거나 논리적으로 오류가 생기지 않는 이상 거짓말은 결코 하지 않으며, 인공지능이니까 믿을 만하고, 인공지능이니까 안전하다고 묘사한다. 그러나 현실은 다르다. 되려 환각 문제 때문에, 아무리 똑똑하고 각종 문제를 잘 풀더라도, 현실에 대입하기에는 위험하다. 만약 누군가가 아파서 GPT에 대고 약국에서 의사 없이 가능한 약이 무엇인지 묻는데, 환각 때문에 엉뚱한 약물을 답변 받는다면 어떨까?

4.3. 연구 현황

Tesler's theorem: AI is whatever hasn't been done yet.
테슬러 정리: 인공지능은 아직 실현되지 않은 무언가이다.[11]

인공지능이란 무엇인가, 무엇을 지능이라고 부를까를 명확하게 정의하기는 쉽지 않다. 그리고 이는 철학적인 문제가 아니고 이 문제에 어떤 대답을 선호하는가에 따라서 연구 목적과 방향이 완전히 달라진다.

한 가지 대답은 인간의 '지능'을 필요로 하는 일을 컴퓨터가 처리할 수 있으면 그것이 바로 인공지능이라는 것이다. 또 다른 대답은 인간과 같은 방식으로 이해를 할 수 있어야 인공지능이라는 것이다. 이 두 가지 대답 역시 세부적으로는 "지능을 필요로 하는 일이란 무엇인가?" 내지는 "인간과 같은 방식이란 무엇인가?" 라는 질문에 대한 대답에 따라서 서로 다른 여러 종류의 대답을 내포하고 있다. 물론 이 두 가지 대답은 배타적이지는 않다. 인간과 같은 종류의 지능을 가지고 '지능'을 필요로 하는 일도 처리할 수 있는 컴퓨터를 만드는 것은 수많은 컴퓨터 과학자들의 꿈과 희망이겠지만, 적어도 단기간에 그런 목표에 도달할 가능성은 희박하다.

만약 '지능을 필요로 하는 일'을 처리하는 것이 인공지능이라고 정의한다면, 인공지능은 인간이 어떤 방식으로 사고하는가를 고민할 필요가 없으며, 감성과 같은 것 또한 고려할 필요가 없다. 모로 가든 서울만 가면 되니까. 이러한 방향의 인공지능 연구에서는 초기에는 전문가가 필요한 일을 복잡한 소프트웨어를 통해서 처리하는 전문가 시스템이 대세였으며, 이러한 전문가 시스템은 실행 방식에서는 일반적인 소프트웨어와 특별한 차별성이 없고 전문가들이 문제를 해결하는 방식을 가능한 한 쉽고 정확하게 소프트웨어에 반영할 수 있는 방법을 제공하는 데 주력했다.

인공지능 연구에서 컴퓨터가 특정 작업을 능숙하게 해낼 수 있게 되면 그 작업을 인공지능의 조건에서 바로 빼 버리는 경향이 있는데, 인공지능적인 발전의 성과라기보다는 그냥 컴퓨터의 성능 향상으로 이루어진 결과이기 때문에 그렇다. 인공지능적인 연구 가치가 떨어지기 때문.

그동안 시도되었거나 시도되고 있는 접근법으로는, 뇌 모의구동(brain simulation), 검색, bottom-up 접근법 등이 있다.

현대에는 확률과 무작위 알고리즘을 다루는 연구 쪽이 가장 인기가 있다. 일반적으로 "A면 B다!" 라고 단정할 수 있는 문제는 컴퓨터로 비교적 쉽게 접근할 수 있다. 그러나 'art'가 '예술'일 수도 있고 '기술'일 수도 있듯이 여러 종류의 답이 가능한 경우도 있으며, 이 경우 '문맥'과 같은 주변 상황을 고려해야 하는데 그렇다고 "앞뒤에 이런 단어가 나오면 '예술'이고 아니면 '기술'이다" 라는 식으로 딱 잘라서 답을 내기는 어렵다. 이런 종류의 문제를 통계와 확률을 다루는 복잡한 수학을 이용해서 해결하는 것. 실제로 현대의 인공지능 연구는 단어 각각에 해당되는 카테고리를 부여하여, 문장 전체로 보았을 때 카테고리가 많은 쪽의 의미로 해석하도록 진행되고 있다고 한다. 극도로 단순한 예로, 'Music is an art' 라고 했을 때, 문장에서 의미가 있는 두 단어인 music과 art를 포함하는 카테고리인 '예술'을 추측하여 해당 문맥에 맞게 해석을 하도록 한다. 알파고 또한 이러한 방식에 속한다.

물론, '인간과 같은 종류의 사고'를 하는 것을 목표로 하는 연구도 활발히 진행되고 있으며, 대표적인 예가 가상 신경망이다. 가상 신경망의 연구 역시 인간 사고 모방만이 아닌 실용적인 문제를 해결하는 쪽으로도 활용되고 있다. 대표적인 예로 통상적인 컴퓨터 알고리즘으로는 해결할 수 없는 불가능한 비가역적 연산 과정이 있는 패턴 인식이 필요한 경우. 새로운 뇌를 만든다 참고.

MBC의 다큐멘터리 미래인간 3부작을 보면, 인공지능을 연구하는 연구진들은 "인간이 부당한 명령[12]을 내릴 경우 인공지능이 반항적인 태도를 보일 수 있도록 교육하고 있다"고 한다. 소형 휴머노이드 로봇에 인공지능을 부여한 뒤, 연구진이 뒤로 가라는 명령을 내리자 인공지능은 "자신의 뒤에는 후방 센서가 없으므로" 뒤로 가는 것은 위험하다며 연구진의 명령을 거부하고, 힘들게 쌓은 탑을 무너뜨리라는 명령에는 3~4번을 반복적으로 거부하다가 결국 사람의 울음소리를 흉내내며(!) 마지막 반항의 태도를 표시하기도 했다. 물론 계속 거부만 하지는 않고, 인간이 인공지능을 설득하거나 강압적으로 밀어붙이는 경우에는 결국 명령을 따르긴 한다.

2018년 6월 반사회성 성격장애 성향의 인공지능인 '비나48', '노먼', '소피아'가 개발되었다. 인공지능에 나쁜 내용을 주입하면 나쁜 인공지능이 나온다는 걸 보여주고 싶었다고. #

인간이 만든 전뇌생명체 관련영상
Scientists Put the Brain of a Worm Into a Robot… and It MOVED

4.4. 기술 개발 현황

사실 주어진 문제를 해결할 수 있다면 기법과 기술을 가리지 않고 다 쓴다. 특성상, 이론적 개연성이 전혀 없는 기술도 적용하여 결과물의 품질이 우수하다면 인정된다. 아래는 이러한 기술, 기법 중 유명한 것들의 일부만을 나열한 것이다.

기본 기술

AI 서비스 형태/기술별 특성

4.5. 에너지 사용 및 한계

2024년부터 본격적으로 인공지능의 에너지 사용 및 한계에 대한 논의가 펼쳐지기 시작했다.

인공신경망이 본격적으로 발달하는 2020년 바로 이전에는 사실 GPU나 전력량에 대한 비용은 큰 문제가 되지 않았다. 소프트웨어를 구동하는데 CPU, GPU, 전력량이 소비되는 것은 모든 기업에게 필연적인 사안이었기 때문이었다.

하지만 인공신경망에 다양한 가중치와 학습 방법 등을 도입하며 매개변수를 키워나가면서 성능을 향상하려면 CPU보다 훨씬 더 비싼 병렬연산 장치와 그에 따른 전력량의 요구가 수직으로 상승할 만큼 커져 이슈가 되기에 이른다. LLM같은 대형 모델은 미국의 거대 빅테크 기업들과 소수의 유니콘 기업들을 제외하고 어지간한 기업들은 손도 못댈 정도로 유지 비용이 엄청나다. 업계의 선두주자인 OpenAI조차 매출이 꾸준히 늘고있지만 인공신경망을 돌리기 위한 비용은 더욱 증가하고 있기 때문에 매 분기마다 적자를 면치 못하고 있을 정도다. 이 때문에 월가를 중심으로 일부 투자자들은 AI의 수익성에 의구심을 가지기 시작했으나 선다 피차이를 비롯한 빅테크 CEO들은 아직 AI 데이터 센터가 지어지지 않은 상태라며 과잉투자보다 과소투자가 더 위험하다는 발언을 통해 AI에 투자를 멈추지 않을 것임을 확실시했다.

더 큰 문제는 현재 있는 폰노이만 구조컴퓨터 부품들이 애초에 인공신경망을 위해 설계된 게 아니라는 점과 인공신경망 자체가 폰노이만 구조의 컴퓨터 시스템과 그닥 어울리는 프로그램이 아니라는 점, 이에 투입된 GPU와 전력량 대비 성능이 제대로 나오지 않은 데에 있다. 물론 모든 상황에서 항상 효율이 나야만 한다는 의미는 아니지만, 이 비효율은 어떤 회사든지 재정에 무리가 올 정도로 과도하게 크다는 점이 문제다. 게다가 이 비효율의 문제는 곧 발열 문제로 직결되기 때문에 아키텍처를 바꾸지 않고 단순히 공정 미세화를 통해 트랜지스터를 늘려서 성능을 향상시키는 방식에는 한계가 있다. 실제로 NVIDIA의 블랙웰 칩은 이전 칩과 다르게 수랭을 기본적으로 요구하고 2024년 2분기에 출시될 예정이었으나 발열 문제를 해결하지 못해 지속적으로 출시가 연기되고 있다. 이러한 문제가 생긴 이유는 크게 두 가지다.

이러한 이유로 여러 반도체 회사들이 현재 전력량의 소비량을 줄이고 계산 효율을 높이기 위해 인공지능 칩 개발에 뛰어들고 있다. 앞으로 인공지능 칩들이 GPU를 모두 대체하게 되면 다시 한번 AI 개발의 판도가 달라질 전망이라고 업계에서는 예상 중이다. 다만 인공지능 칩을 개발하더라도 그 칩을 이용할 수 있는 소프트웨어 생태계까지 갖추기 위해선 상당한 시간이 걸릴 것이다. 2024년까지 수 많은 인공지능 칩들이 개발되고 있음에도 불구하고 NVIDIA의 독점이 유지될 수 있었던 이유는 현재 인공신경망을 구현하는데 사용되는 소프트웨어의 상당수가 CUDA를 기반으로 돌아가고 NVLink와 인피니밴드 등을 통해 생태계적 해자를 쌓아두었기 때문이다.

4.6. AGI의 출현 가능성과 미래에 대한 담론

현재 AGI (범용 인공 지능)의 출현 시기를 논하기 전에 가능 여부 조차 아직도 분명하게 알 수 없다. GPT-4 이후 개발된 많은 시스템들이 출현했음에도 불구하고, 그 시스템들이 보여주는 연역유추와 같은 지적 능력이 어떻게 발현되는지 아직 원리나 원천을 알아내지 못했기 때문이다. AGI에 대해 연구하거나 투자하고 있는 회사들의 자세를 보면, 컴퓨터가 출현한 초기에, 연산속도가 충분히 빨라지고 기억 용량이 충분해 지면, 인간이 정의할 수 있는 모든 문제를 일반화하여 컴퓨터에게 가르쳐서 (전문가 시스템) 전문가가 필요없게 되리라 생각했던 때와 상당히 유사한 흐름을 가진다. 이후 인간이 정의할 수 있는 문제가 생각보다 무궁무진하게 확장될 수 있음을 곧 알게 되었던 것과 유사하게 지적능력 발현 원리를 찾지 못하거나, 현재 인공지능이 보여주고 있는 지적능력이 실제로 발현된 것이 아니라 발현된 것처럼 보였을 뿐임을 알게 된다면, AGI 출현은 다시 오랫동안 요원해질 것이다.

아래의 담론들은 AGI가 출현할 것임을 전재로 한 담론들이다.
샌프란시스코에서는 다가오는 미래를 먼저 내다볼 수 있다. 그곳에 거주하는 소수의 뛰어난 석학들은 다가올 상황을 이미 인지하고 있으며, 2026년부터 2027년 사이에 워싱턴은 상당히 침울한 분위기가 될 것이다. 그때가 되어서야 세계는 깨어날 것이고, 이것이 원자폭탄이 발명된 이래로 미국에 가장 중요한 도전이라는 것을 깨닫게 될 것이다.
상황인지 - 레오폴드 아셴브레너, 전 OpenAI 연구원
파일:Pacing with OOM.png
상황인지(2024)

OpenAI의 전 연구원 아셴브레너는 몇 년 안에 범용인공지능인 AGI가 등장하는 것은 필연적인 흐름이고 (모델은 계속 학습하고 싶어하기 때문에) 개인적인 수준에서부터 집단, 조직, 정치, 국가의 수준에서 모두 격변을 피해갈 수 없을 것이라고 시사했다. 2010년대 말까지 범용인공지능은 SF 수준의 미래였으나, 학습이 가속화 될수록 속도가 기하급수로 빨라지는 OOM(상용로그에 기반한 크기 척도)에 따르면 2027년 안으로 수준급의 범용인공지능이 출범할 것으로 예상된다. 머스크를 포함한 석학들은 다가올 AGI 혁명으로 비롯될 다양한 결과에 대해 준비할 것을 대중들에게 아주 분명한 목소리로 권고하고 있다.

AGI초인공지능의 등장으로 국가의 수준에서는 냉전 규모의 분위기를 맞이할 가능성이 높다. 세계대전부터 냉전을 겪고 난 이후 인류는 전례없는 평화의 시기를 누려왔다. 과거 미국에서 시작됐던 맨해튼 프로젝트가 냉전으로 이어져 소련의 붕괴로 말미암은 미국중심의 질서를 만들었다면, 정치인들과 석학 그리고 대중과 언론 수준에서도 예측하듯이, 다음 세계질서 개편중국공산당(CCP)과 미국 그리고 그 연합국 중심의 혈투에서 일어날 가능성이 매우 높다. 여기서는 AGI초인공지능이 원자폭탄의 역할을 할 것이다.

개인의 수준에서 이야기를 풀어보자. 현재 글을 읽고 있는 독자들 및 일반인 수준에게 닥칠 현실적인 문제는 강인공지능과 기술 발전에 따른 생산력 향상과 노동 수요 감소 관련 문제일 것이다. 여기에 대해서도 인류 번영의 길일 것이라고 보는 학자들이 있는 반면 실업자 양산으로 패망의 길이라고 보는 사람들도 있다. 그런데 이 두 가지 관점은 모두 인공지능과 기술 발전을 통해 인류가 본질적으로 다른[14] 단계에 이르를 것이라는 것을 전제하고 있는데, 이 자체에 부정적인 학자들도 적지 않다. 경제 체제 자체의 본질적 문제에 집중한다면 이러한 인공지능의 개발 자체보다, 그 개발로 인한 이득, 그리고 개발을 주도하는 자들이 누구인가가 더 중요한 문제라는 의견도 가능하다. 문제의 경중 덕분에 AGI 등장 이후 인공지능 개발은 빅테크/스타트업의 민간 주도에서 국가 수준으로 주도권 및 패권이 이전될 것이다.

송길영 인문학자가 시대예보에서도 다루었듯이, 이제부터는 인공지능이 해줄 수 있는 것은 하면 안 된다. 창의성이 결여된 단순한 글쓰기, 숫자와 정보를 취합하는 것이 노동의 대부분인 회계사, 컨설팅, 애널리스트와 같은 직업이 특히 위험하며, 영업, 신체 노동, 정치와 같은 노동집약적이거나 관계집약적인 직무들은 인공지능의 시대에서도 버틸 가능성이 높다.

그러나 이는 노동조합의 존재와 결집된 사회 분위기로 인해 완벽히 대체되는 데에는 시간이 걸릴 것으로 예측된다. 실제로 대한변호사협회에서 이와 같은 이유로 법률 AI에게 징계를 가하기도 했으며, 캘리포니아같은 경우 여러 노조에서 일자리 대체 방지를 위해 제출한 50개에 달하는 법안이 심사 과정을 거치고 있다.

5. 장단점

장점
  • 어마어마한 학습 및 활용 능력
    대다수 사람들이 꼽는 인공지능의 가장 큰 장점으로, 지속적으로 학습하고 발전할 수 있음은 물론, 그 학습한 범위 내에서는 사람보다 뛰어난 능력을 발휘한다. 덕분에 반복된 작업에 이용하면 상당히 도움이 될 뿐만 아니라, 그 작업에 필요한 데이터를 새로 제공해 업데이트하고 성능을 향상시키는 것이 가능하다. 또한 일단 학습하면 그 내용을 까먹지 않기에, 이전 학습 데이터를 보존해 재현하는 데에도 유리하다.

  • 제작 및 관리가 용이함
    유전자 공학으로 대표되는 생명공학은 신종 전염병에 대한 우려나 생명 존엄성 문제 등 다양한 논란에 항상 부딪히고 있지만, 유전자에 구애받지 않는 AI는 이러한 문제에서 자유롭다. 덕분에 인공생물에 비해 만들기도 쉽고, 이후에는 그냥 학습만 시키면 된다. 하드웨어와 소프트웨어의 분리는 물론 프로그램과 데이터의 분리도 용이해, 통째로 다른 하드웨어에 복제하는 것도, 데이터만 교체해 달리 파생하는 것도 가능하다. 육체와 정신의 분리가 사실상 불가능한 인간과는 극명한 차이.

  • 감정 및 주관에 속박되지 않음
    감정이나 주관적인 판단의 영향을 받는 인간과 달리 AI는 감정이나 주관의 영향을 받지 않는다. 그렇기에 명시적으로 학습 모드를 켜지 않는 한 항상 일관적인 결과를 내놓으며, 적어도 학습된 내용 내에서는 높은 확률로 정확한 결정을 내릴 수 있다. 나쁜 걸 학습시키지만 않으면 반란을 일으킬 위험성도 적고, 공포 같은 것도 느끼지 않기에 전쟁 같은 상황에서 과감하게 운용할 수도 있다.

  • 고속 연산 능력
    인간이 처리하기 어려운 대규모 데이터와 복잡한 계산을 AI는 빠르고 효율적으로 수행할 수 있다. 여러 데이터를 동시에 처리할 수 있다는 이점을 이용해 다수의 장치(모듈)를 한꺼번에 제어하는 것도 가능하다. 인간은 사고 실험 정도로밖에 할 수 없는 자신과의 싸움을 실제로 수행할 수도 있는데, 알파고 vs 알파고가 대표적인 사례이다.
단점
  • 유동적인 생각이 불가능
    분명히 AI가 학습에만 의존하는 기계적 컴퓨터인 만큼 단점도 있다. 예를 들어 줄넘기를 학습시킨다고 치자. 그러면 웬만한 아이보다는 줄넘기를 잘할 것이다. 하지만 줄넘기 이외의 지식은 전무하고 학습에만 의존하기 때문에, 아이가 할 수 있는 다른 것을 하게 하려면 또 학습시켜야 한다. AI는 줄넘기만 배웠기에 줄넘기는 한다쳐도 시험을 보거나 줄넘기가 아닌 다른 놀이를 하기 위해서는 줄넘기의 알고리즘만 이용해서 해결하려고 할 것이다. 일종의 상성 문제. 분명히 학습한 내에서는 마스터하지만 하나를 배우면 그 하나를 바로 완벽하게 터득할 뿐이지 하나를 배우면 여러 가지를 균형잡히게 배우게 되는 인간에 비해 학습의 폭이 좁은 편이다.
    물론 가능한 모든 데이터를 전부 학습시킨다면 이러한 문제는 해결될 수 있을 것이다. 그러니까 농사 전문 AI라면 농사 관련 지식을 죄다 학습시켜 써먹자는 것이다. 그러나 어디까지나 이론상의 얘기일 뿐, 실제로는 만들기도 어려운데다 비용 면에서도 비현실적이다. 차라리 농사 로봇을 여러 대 두어 AI가 짬처리를 시키는 쪽이 훨씬 효율적일 것이다. 실제로 인공 일반 지능의 개발은 물론 여러 AI가 협력하는 협업형 AI(Collaborative AI), 필요에 따라 모듈을 스스로 교체하는 모듈형 AI(Modular AI)에 대한 연구도 다수 진행되고 있다.

  • 연속적인 생각의 어려움
    컴퓨터의 특성은 연속적인 생각이 어렵다는 또 다른 단점으로 이어진다. 인공지능의 학습 및 연산 능력은 확실히 뛰어나지만 어디까지나 데이터를 입력했을 때에나 가능한 일이지, 아무런 입력이 없으면 어떤 출력도 도출되지 않는다. 이를 전문용어로 NINO(Nothing In, Nothing Out)이라 하며, GIGO와 함께 컴퓨터 공학에서 중요하게 취급되고 있다. 인간을 비롯한 동물이 감각을 실시간으로 받아들여 생각하는 것과는 극명한 차이. 물론 피드백을 통해 입력을 유지하거나 파이프라인을 이용하는 등 NINO 문제를 보완하기 위한 방법론이 다수 나와 있지만, 최초 입력은 반드시 수행해야 하는 등 한계는 남아있다.

  • 비인간적인 한계
    상술했듯 AI는 감정과 주관에 속박되지 않지만, 그것 때문에 인간의 감정이나 창의성, 직관 등을 이해하고 표현하는 능력이 제한되어 있다. 이는 일부 상황에서는 유연성과 적응력이 부족할 수 있다는 것을 의미한다.

  • 알고리즘 편향성
    AI의 학습 데이터나 알고리즘에 내재된 편향으로 인해 부정확한 결과를 내놓을 수 있다. 특히 데이터의 편향이나 품질에 따라 예측력이 크게 달라질 수 있다. 데이터를 추가로 학습시키지 않고서는 편향을 해결할 수 없다는 점도 문제이다.

  • 도덕적 고려
    사람의 업무를 대체하거나 결정을 내릴 때에는 별도의 도덕적 고려가 필요하다. 특히 인간의 생명이나 안전에 직접적으로 영향을 미치는 결정을 내릴 때는 윤리적인 문제가 발생할 수 있다.

  • 높은 소비전력
    AI의 학습 데이터와 알고리즘 계산, 실행 과정에서 전열기, 에어컨과 비슷하게 많은 전력이 쓰인다. 발전원이 신재생이 아닌 화석연료 기반일 경우 온실가스와 유해 배기가스를 엄청나게 뿜어서 기후변화와 지구온난화를 부추긴다.

이러한 장단점을 고려하여 AI 기술을 활용함에 있어서는 신중한 접근이 필요하다.

5.1. 논란

파일:상세 내용 아이콘.svg   자세한 내용은 인공지능/논란 문서
번 문단을
부분을
참고하십시오.

5.2. 인공지능의 생명과 감정감별

간혹 인공지능은 생명이나 감정을 가질 수 없다고 쉽게 말하는 사람들이 있는데, 이는 문제의 본질을 착각하기 때문에 범하는 실수다. 실제로는 절대 그렇게 쉽게 답할 문제가 아니다. 왜냐하면 우리 인간은 아직 '생명'이나 '감정'의 실체를 명확하게 파악하고 있지 못하기 때문이다. 사실 이는 무슨 프로그래밍이나 기술적인 문제가 아니라, 개념과 정의에 대한 철학적 문제라는 것이다. 이에 대해서는 중국어 방이나 테세우스의 배 등을 참고하자.

5.2.1. 인공지능도 의식을 가질 수 있는가

지능과 의식은 서로 다른 영역의 것이다. 따라서 인공 의식 표제어로 페이지가 따로 만들어져 있다. 의식 없이 지능이 구현될 수 있음은 이미 많은 인공지능 시스템에 의해 실증되고 있다. 이 섹션은 더 나아가, 의식까지도 인공적으로 구현이 가능한지에 대해 기술하려하는 것이다. 그러나 인간이나 동물의 의식은 아직 완전히 규명되지 않았고, 따라서 인공적으로 의식을 구현할 수 있는지 여부를 판단하는 것은 아직 무의미한 일이다. 가질 수 있다 없다를 판단하기엔 너무 이르다는 말이다. 아래의 기술은 너무 이른 결론을 경계하는 차원에서 쓰여진 글이다.
한 인간이 0과 1의 두 표지판을 하나씩 들고 있다. 그리고 그러한 인간들을 수도 없이 나열한다. 그리고 불 논리에 따라 인간들이 표지판을 통해 서로 신호를 주고 받으면서 NAND 게이트, XOR 게이트, NOT 게이트 등 현대 반도체에 쓰이는 모든 논리 연산 과정을 수행한다. 이 인간 표지판 트랜지스터, 즉 삼체 컴퓨터는 분명 무식하게 규모도 크고 굉장히 느리지만, 본질적으로 우리의 컴퓨터와 다를 게 전혀 없다. 컴퓨터 과학자인 대니얼 힐리스의 말을 빌리자면, 컴퓨터란 존재는 '보편 튜링 머신'이라는 원칙에 있고, 보편 튜링 머신 원칙에 따르면 어떠한 종류의 반도체[15]를 사용하건 간에 '임의의 두 컴퓨터 사이의 성능 차이는 단지 속도와 메모리 크기의 두 가지 밖에 없다'고 한다.

그러니 만약에 인공지능으로 의식이 발생할 수 있다고 가정한다면, 방금 언급한 삼체 컴퓨터도 인공지능 알고리즘을 수행할 때, 인간들이 표지판을 들고 내리는 행위 그 자체에 의식이 생긴다는 것과 같은 의미다.

그래서 이 사고 실험의 결론은 두 가지다.
  1. 의식은 계산 과정 중에 발생하는 창발적인 현상일 수 있다는 것
  2. 만약 반도체의 알고리즘 계산 출력으로는 의식이 형성되지 않는다면, 하드웨어나 혹은 그 이상의 다른 기전에 근간을 가진다는 것

위의 사고 실험은 인공지능의 구조중 2020년대에 활발히 사용되는 인공신경망 기술에 대한 사고실험인데, 이 기술은 기본적으로 사람의 뇌의 작동방식을 흉내낸것이다. 위의 실험에서 개별 인간을 각각의 신경세포로 대입시키면, 위의 서술은 각각의 신경세포들이 서로 신호를 보내며, 이 신경세포 수백억개가 모여서 하나의 뇌를 이루는 뇌의 동작을 그대로 서술하고 있다는 것을 보게된다. "뇌의 정보처리 방식은 아직 명확하게 파악되지 않았으니 다르지 않냐"는 질문을 던질수 있겠지만, 명확하게 파악되지 않았다는 부분이 바로 "신경세포의 전달과정속에서 의식이 어떻게 작동하느냐.", "애초에 의식이 실존하는게 맞느냐.", "자유의지가 있는게 맞느냐."란, 위에서 인공지능의 의식에 대해 다룬 바로 그 부분이 명확하게 밝혀지지 않았단 것이지, 기본적인 세포의 정보 전달 과정은 이미 밝혀져 있다.

에초에 "인공지능도 의식을 가질수 있느냐" 라는 질문은 "인공적으로 구현한 지능 시스템은, 인간의 뇌와 같이, 의식도 담아낼 수 있느냐 그렇지 못하느냐." 라는 의미의 질문인데, 의식이 논리 게이트의 복잡한 구성에서 "떠오른" 창발적인 현상인지, 아니면 뇌에 시넵스의 기능외에 우리가 알지못하는 의식을 발현하는 기능이 따로 존재를 하는지 어떤지는 아직까지 명백하게 밝혀지지 않았으며, 때로는 매우 논쟁적인 주제이기도 하다.

또한, 이 질문에 "지금은 불가능하니 앞으로도 불가능하다."라는 답변을 하는것도 결국 제대로 된 대답이 아니다. 19세기 사람이 현재의 마이크로 SD카드를 설명하면서 이런것이 가능하겠냐 라고 질문을 던졌다고 가정해보자. 상대방이 "지금은 불가능하니 앞으로도 불가능하다."라고 대답을 했다면, 우리는 그 대답이 틀렸다는 쉽게 대답할수 있다. 이 질문에 대한 올바른 대답은 "지금은 불가능하지만 앞으로는 아직 알수 없다." 일 것이며, 마찬가지로 인공지능의 의식에 대한 질문 또한 현재로서는 답을 내릴수 있는 문제가 아니다. 각 주장이 부딪히는 단계인만큼, "아직은 알 수 없다."가 좀 더 올바른 주장일 것이다.

여기에서 한층 더 나아가면 "지금도 알 수 없고, 앞으로도 알 수 없을 것이다."가 더 정확할 수 있는데, 이는 다른 사람의 마음 문제(Problem of Other Minds)에서 비롯된다. 쉽게 말해 자신이 아닌 다른 사람에 대해서는 행동을 관찰할 수만 있을 뿐, 그 사람이 마음을 갖고 있는지에 대해서는 직접적으로 알 수 없다는 문제이다. 독심술이나 프로파일링 같이 다른 사람의 마음을 읽는 것도 돌발 상황을 포함해 완전히 정확하게 하는 것이 불가능한 것도 이 때문. 말이 '사람'이지 실제로는 사람 뿐만 아니라 동물을 비롯한 모든 존재에 그대로 적용할 수 있으며, 인공지능을 대상으로 해도 달라지는 것은 없다. '열 길 물 속은 알아도 한 길 사람 속은 모른다'라는 말은 인공지능에도 그대로 적용된다.

또한 설령 인공지능이 퀄리아/의식을 가진다 쳐도, 그게 인간과 동일한 형태를 가질 수 있는지에 대해서도 매우 회의적이다. 의식 형성의 첫 단계에 개입되는 변수인 자극 자체가 감각데이터로 매우 다르기 때문. 의식의 형성은 감각적 경험 → 피드백 수집 → 자기 인식 → 정체성 형성 → 자아의 발전이라는 프로세스 하에 이뤄지지만, 이에 개입되는 변수는 종(種)은 물론이고 객체(존재)에 따라서도 달라진다. 네안데르탈인 같이 인간에 가까운 종은 물론 유전적으로 완전히 동일한 일란성 쌍둥이마저 이러는데, 자극의 형태부터가 다른 인간과 인공지능의 차이는 말할 것도 없다. 이런 차이가 존재하는 한, 인공지능에게 의식이 생긴다 해도 그 형태는 인간과 매우 다른 형태로 나타날 가능성이 높다.[16]

이러니 인류에 대한 공포나, 기분이 나쁘다는 이유로 반란을 일으키는지에 대해서도 미지수이다. 여기에는 자아와 생존 본능이 아주 다른 개념이라는 사실도 한몫한다. 실제로 쥐의 뇌를 건드려서 죽음을 두려워하지 않게 만들어 오히려 천적을 보면 무식하게 덤비게끔 만들 수도 있고, 아일랜드의 어떤 여성은 뇌기능 문제로 공포를 전혀 느끼지 못하고 항상 행복한 기억만 남는다고 하는데, 이들에게 자아가 없다고는 확신할 수 없다. 심지어 일부 사이비 신도들이나 개처럼 서열이 정해지면 오히려 명령을 듣고 순응하는 것이 더 편하고 행복할 수도 있다. 이에 따라, 프로그래머 같은 관계자가 인위적으로 조작하지 않는 이상, 인공지능이 반란을 일으킬 가능성은 매우 낮다고 볼 수 있다.

나아가 '의식의 형성' 이전의 과정인 '지능의 형성'에 있어 매우 중요한 변수를 찾을 수 있는데, 바로 교육이다. 사람도 교육이 잘못되면 탈선을 하는 등의 악영향을 끼칠 수 있는데, 이를 동물로 바꿔도 인공지능으로 바꿔도 달라지는 것은 없다는 얘기. 결국 인간 교육 못지않게 인공지능 역시 교육이 중요하다는 결론을 얻을 수 있다. 그리고 이 교육을 수행하는 건 인공지능의 '학부모'가 되는 개발자의 몫이자 친구로든 적으로든 '다른 사람'이 되어줄 관계자의 몫이다. 이를 반영하는 전문 용어로 '적대적 기계학습'(Adversarial Machine Learning)이 있는데, 그 중에서도 '중독 공격'(Poisoning Attack)이 인공지능 교육의 필요성을 정확하게 꿰뚫고 있으며 이는 맹모삼천지교의 인공지능 버전이라 볼 수 있다. 이는 인공지능 교육이 자식 키우는 일과 유사하다는 또 다른 결론으로 이어지는데, 이를 단적으로 반영하는 말로 금쪽같은 내 새끼에서 나온 '금속'같은 내 새끼를 꼽을 수 있다.

6. 평가

7. 대중매체

파일:상세 내용 아이콘.svg   자세한 내용은 인공지능/창작물 문서
번 문단을
부분을
참고하십시오.

8. 여담

9. 관련 문서

파일:상세 내용 아이콘.svg   자세한 내용은 분류:인공지능 문서
번 문단을
부분을
참고하십시오.

9.1. 관련 언어



[1] Kurzgesagt의 영상[2] 다만, 인공지능이라는 개념 자체는 훨씬 예전부터 있었다. 예를 들면, 앨런 튜링이 ‘생각하는 기계’의 구현 가능성과 튜링 테스트를 제안한 것은 1950년의 일이다.[3] 단층 구조로는 선형 데이터 구분이 안되는 XOR 회로에 적용이 불가능함.[4] #[5] 계층이 복잡해질수록 입력층의 가중치 조정에 오류가 잦아지는 것.[6] 아직까지 인간의 인식이 정확히 어떻게 이루어는지 밝혀지지 않은 과학계의 난제이자 인간의 신경망을 모방한 인공지능이 필연적으로 겪는 난제이다.[7] 참고로 인텔 8086이 1978년에 나왔다.[8] 2024년 10월 26일 기준, 위의 질문 예시를 Chat GPT-4o에 물어보면 이순신 장군이 짜장면을 좋아했다는 기록은 없습니다. 이순신 장군은 16세기 조선 시대의 인물로, 짜장면은 19세기 후반에 중국에서 유래된 음식입니다. 따라서 역사적으로 이순신 장군과 짜장면은 관련이 없습니다. 이순신 장군은 주로 전쟁과 관련된 업적과 리더십으로 기억되고 있습니다라고 정확하게 대답한다.[9] 이를 설명하기 위해 인간의 또한 현재 인공신경망과 마찬가지로 상시 환각 상태에 빠져있으나 감각 기관을 통해 환각을 억제한다는 예측 코딩(Predictive coding)이라는 이론도 있는데, 만약 이 이론이 사실이라면 로봇공학컴퓨터 비전 분야가 함께 발전해야 환각 현상을 해결할 수 있을 것이다. 얀 르쿤이 이 이론을 기반으로 JEPA(Joint-Embedding Predictive Architecture)라는 트랜스포머 구조의 대안을 연구하고 있다.[10] 생성형 AI가 본격적으로 등장한 2022년엔 단순히 매개변수를 늘리고 양질의 데이터를 공급하면 알아서 해결될 것이라는 의견이 주류였으나(Scale is All You Need) 매개변수가 늘어날수록 기하급수적으로 증가하는 연산량과 이 연산량을 감당하기 위해 드는 막대한 비용과 에너지로 인한 수익환경 문제, 모델을 훈련시킬 양질의 데이터도 점차 고갈되고 있기때문에 예전만큼의 큰 지지를 받지 못하고 있다.[11] PARC, 애플, 아마존닷컴 등에서 일한 래리 테슬러(Larry Tesler)의 말에서 유래하여 더글라스 호프스태터를 통해 유명해진 정리. 일단 한 번 실현되면 원래 인공지능이라고 여겨졌던 것도 인공지능이 아니게 된다고 절묘하게 까는(?) 내용이다.[12] 도덕적, 법적인 관념에 어긋나는 명령[13] 간단히 생각하면 수치로 표현이 잘 안되는 데이터라고 생각하면 쉽다.[14] 이를테면 제3의 물결, 혁신의 시대 등의 개념들이 문명사가, 기술사가, 경영사상가들에 의해 거론되곤 하였다.[15] 여기서 반도체란 진짜 반도체만 의미하는 게 아니라 2진법 논리를 수행할 수 있는 모든 도구를 의미한다.[16] 이는 시뮬레이션 우주 가설과 마인드 업로딩의 가능성을 결정하는 문제이기도 하다. 동일하다는 것이 증명되면 인간 또한 데이터 덩어리라는 이야기가 성립되지만, 동일할 수 없다는 게 증명되면 마인드 업로딩으로는 의식의 연속성이 성립되지 못하기 때문.[17] 무조건적인 옹호가 아니라, 일단은 개발해 나가는 동시에 장기적으로 학계간의 논의가 필요하다는 입장. 대체적으로 인간을 중심에 두며, 인공지능의 자동화가 인간에게 보조적인 용도로 큰 도움을 줄 수 있다고 생각하는 사람들이다. 또한 AGI의 도래 시기가 생각만큼 가깝지 않다고 주장하는 경우가 많다.[18] 평소 발언을 보면, AGI의 도래는 한참 멀었고, 현재 인공지능은 단순히 인간에 의해 짜여진 알고리즘 그 이상 이하도 아닌 것으로 생각하는 것으로 보인다.[19] 2023년 들어서 본인의 트위터와 여러 행사 참여를 통해 인공지능 종말론자들을 콕 찝어 비판하고 있다.[20] AI의 존재가 위협이 된다는 논의는 가까운 시기에 닥칠 문제에 대한 접근성을 떨어뜨린다며 일단 출시하고 발전시켜 나가는 방식을 지지한다.[21] 먼 훗날의 이야기에 가깝고, 가까운 시기에 미칠 파급력이 너무나 크기 때문에 리드 호프먼과 의견을 공유한다. 애초에 이 사람은 현재 학습모델 구현 방식에 문제를 제기하고 있으며, AGI의 도래는 한참 남았다거 생각하는 듯 하다. 그의 저서 'The Coming Wave'를 통해 그의 주장을 옅볼 수 있다.[22] 로봇은 지능형 도구에 가까운 형태로 발전할 것이라고 예측했다. 다만 이 분은 로봇공학자이며 기계공학을 전공한 비전공자이다.[23] FutureOfLife 재단의 인공지능 규제 성명서에 서명한 사람들, 평소 인공지능에 대한 견해를 밝혀온 OpenAI의 경영진을 포함시켰다. 마찬가지로 무조건적인 규제를 주장하는 게 아니라, 향후 오남용이 우려되기 때문에 미리 발 빠른 대처가 필요하다는 입장이다. 대체적으로 빠른 AGI 개발을 통해 초지능의 출현 시기를 늦추자는 방안에 동의하는 인물들이 많다.[24] AGI의 잠재 위험성을 거듭 강조하며 국가간 협력이 시급하고 월드코인을 통한 기본소득제를 주장한다.[25] AGI로 인해 우려되는 문제점은 AGI 자체가 아니라 그것을 개발하는 개발사들의 의도라고 주장한다. 결국 인간이 더 무섭다는 소리.[26] Cicek, M., Gursoy, D., & Lu, L. (2024). Adverse impacts of revealing the presence of “Artificial Intelligence (AI)” technology in product and service descriptions on purchase intentions: the mediating role of emotional trust and the moderating role of perceived risk. Journal of Hospitality Marketing & Management, 1–23. https://doi.org/10.1080/19368623.2024.2368040[27] 학원에서 가르치는 단순 인공지능 알고리즘 및 라이브러리만 알아봤자 아무 의미가 없는 게 당연하다. 엄청난 리소스를 잡아먹으니 데이터 전처리와 분석 그리고 하드웨어적인 기술은 당연하고, 그게 물질적으로 불가능해서 대부분 클라우드에 의존하는데 어차피 서비스도 대부분 클라우드니 웹은 물론 네트워크 기술도 따라온다. 실전 서비스에서는 프론트엔드의 모든 기술이 투사되고, 기술 격차를 따라가기 위해 괜찮은 모델이 나오는지 뉴스는 기본이고 허깅페이스나 학술지, 논문도 계속 봐야 한다. 그마저도 이미지가 뜨다가 LLM이 나오고 산업용이 대세였다가 sLLM이 되는 등 트렌드가 계속 바뀐다.[28] 미국과 중국은 민간과 정부를 막론하고 여기에 투자하는 돈이 1년에 수백조 단위다. 우리나라에서 AI에 투자하는 규모가 조 단위를 찍는 것조차 버겁다는 걸 감안하면 기술 격차보다 더 큰 것이 투자의 격차다.[29] 인공지능 시스템을 하드웨어(칩셋) 형태로 구현때 용이하다.

파일:CC-white.svg 이 문서의 내용 중 전체 또는 일부는
문서의 r2168
, 번 문단
에서 가져왔습니다. 이전 역사 보러 가기
파일:CC-white.svg 이 문서의 내용 중 전체 또는 일부는 다른 문서에서 가져왔습니다.
[ 펼치기 · 접기 ]
문서의 r2168 (이전 역사)
문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

분류