
미국 센트럴 플로리다대 제공
인공지능은 이제 더 이상 우리 삶과 떼놓고 생각할 수 없을 정도가 됐다. 인공지능이 만드는 인류의 미래는 어떻게 될까.
미국 센트럴 플로리다대 제공
미국 센트럴 플로리다대 제공
챗GPT로 대표되는 생성형 인공지능(AI)이 등장한 이후 사람들은 다양한 영역에서 이를 활용하고 있다. 말동무뿐만 아니라 심리상담까지 하는 경우가 생겨나고 있다. ‘생각하는 기계’의 등장은 단순히 편리함의 제공이라는 측면을 넘어 인간의 정체성까지 흔드는 상황이다.
교양 과학 계간지 ‘한국 스켑틱’ 가을호(43호)는 커버스토리 ‘AI 시대, 우리 인간이 생각해야 할 것들’에서 AI 시대를 살아가는 인류가 마주할 수밖에 없는 창작, 노동, 의식, 윤리 등 거대한 문제를 짚어봤다.
신경과학자 한정규 박사는 ‘어떤 천재적 인간보다 모든 지적 활동에서 훨씬 뛰어난 기계’인 초지능이 가능할지 살펴봤다. 한 박사는 AI 선구자인 어빙 존 굿이 제시한 ‘재귀적 자기 개선’ 개념이 초지능 등장의 실마리가 될 것이라고 설명했다. 재귀적 자기 개선은 초지능에서 가장 핵심적이면서 위험한 개념이다. AI가 인간 개입 없이 스스로 능력과 지능을 향상함으로써 외부 문제를 해결하는 것을 넘어 자기 구조와 과정을 지속해 관찰하고 개선하는 메타인지 능력을 발달시킨다는 것이다. 한 박사는 “초지능이 인간 지능을 압도하는 존재라면 그것은 우리 편일까, 아니면 새로운 위험이 될까”라며 “초지능이 현실화하기 전에 윤리적 설계와 방향성 설정이 우선돼야 한다”고 강조했다.
과학철학자 전진권 명지대 교수는 ‘AI에게 우리의 미래를 맡길 수 있을까’라는 글에서 AI의 핵심 메커니즘인 ‘블랙박스’ 문제를 파헤쳤다.
예를 들어, 질문을 넣으면 잠시 후 답을 적힌 종이를 내놓는 블랙박스가 있다고 하자. 아무리 복잡한 수학 문제를 넣어도 막힘 없이 풀어내지만, 상자 내부에서 어떤 일이 일어나는지 알 수 없다. 여기에 “어떤 회사에 지원해야 능력을 잘 발휘할 수 있을까”라는 질문을 넣었는데 도무지 짐작할 수 없는 회사 이름이 나왔다. 이렇게 인생이 걸린 문제를 넣었을 때 나오는 답을 믿고 미래를 맡길 수 있을까. 이것이 바로 AI는 높은 성능을 자랑하지만, 그 판단 과정은 정확히 알 수 없다는 ‘블랙박스’ 문제다. 얼굴 인식 AI가 인종 및 성별 편향성을 갖고 있다는 인식편향성과 학습 데이터에 따라 답변이 달라지는 클레버 한스 효과는 AI의 위험성을 보여주는 대표 사례다. 전 교수는 이런 문제의 해결책으로 설명할 수 있는 AI를 제시했다. AI 판단 근거를 인간이 이해할 수 있는 방식으로 드러내야 신뢰와 안전을 확보할 수 있다는 것이다.
그런가 하면 문화연구자 신현우와 정치경제학자 홍기빈 박사는 AI와 노동의 미래를 예측했다. 신현우는 빅테크 기업들은 노동을 통한 잉여가치가 아닌 데이터와 플랫폼 지대를 기반으로 부를 축적하고, 시민들은 점차 디지털 농노로 전락한다고 비판한다. 그렇지만 홍 박사는 AI가 가져올 노동의 종말이 불평등을 완화하고 모두가 가치 있는 활동에 몰두할 수 있는 유토피아적 가능성을 열 수도 있다고 말한다. 이를 위해서 이들은 “오픈소스 AI와 데이터 주권, 공유 원리에 기반한 새로운 사회계약이 필요하다”면서 “AI 시대에 어떤 사회 계약과 가치 기준을 세우느냐에 달려 있다”고 지적한다.

한국 스켑틱 가을호(43호)
Copyright ⓒ 서울신문 All rights reserved. 무단 전재-재배포, AI 학습 및 활용 금지