AI, 인간을 대체할 수 없는 현실적인 이유

llm을 기반으로 한 생성 ai 서비스가 봇물 터지듯 쏟아져나오고 있습니다.

그리고 chatgpt, bing 등 대화형 챗봇 서비스를 이용해본 사람들은 ai가 인간을 대체 하고 지금의 내가 아무 쓸모없어지는 것은 아닌지 걱정하는 사람들이 많습니다

참으로 이상한 현상이 아닐수 없습니다

세상은 편리해졌고 더 많은 일을 더 빠르게 할 수 있게 되었는데 오히려 더 불안하고 고민이 많아지는 현실이 재미있지 않나요?

미래의 가능성을 늘 열려있어 정해진 정답은 없겠지만 저는 ai가 인간을 대체할 일은 없을 것이라 생각합니다

물론 그렇다고 아무것도 하지 않아도 지금 누리고 있는 것들을 미래에도 누릴 수 있다고 말하는 것은 아닙니다

제가 왜 이런 생각을 도출해 냈는지가 궁금하시다면 끝까지 읽어주시기 바랍니다.

자신이 ai에 대체 될지도 모른다는 불안감에 사로잡힌 여자의 모습으로 양손으로 머리를 감싸쥐고 괴로워 하고 있다.


AI의 치명적인 2가지 단점

AI가 인간의 능력을 대체하는지를 이야기하려면 AI의 능력이 어디까지 왔는지 그리고 한계점은 없는지를 알아야합니다

AI는 학습이라는 과정을 통해 개선된다는 점에서 인간과 매우 유사합니다

많은 것을 보고 많은 것을 듣을 수록 정확한 답변을 도출해냅니다

기계라는 점에서 그 도출속도는 감히 인간은 따라잡을 수 없는 AI만의 영역이라 할 수 있을것이며 앞으로 점점 더 빨라질 것입니다

하지만 그들에게는 치명적인 단점이 있습니다


첫째는 학습데이터에 모든 것을 의존한다는 점입니다.

AI는 창조를 할 수 없습니다. 기존의 것을 최대한 잘 섞을 뿐입니다

그런데 AI가 인간이 만든 창작물이 아닌 자기가 만든 결과물을 습득하고 다시 결과물을 내는 과정을 반복하면 어떻게 될까요?

정답은 ‘퇴화한다’ 입니다.

앞서말한 것 처럼 AI는 최대한 정답에 가깝게 모방하는 것을 지상 목표로 삼아왔습니다.

즉 99.9%는 될 수 있지만 100% 창작물은 불가능하다는것입니다.

다른 관점에서 보면 아무리 새롭게 만들어도 뜯어보면 기존의 것을 짜집기한 것에 불과할뿐 결코 새로운 것을 만들어낼 수는 없는 것입니다.


두번째는 할루시네이션입니다

이 개념은 ‘그럴듯한 거짓말’ 이라고 설명할 수 있는데요

이들은 모른다는 답변을 낼 줄 모릅니다. 그래서 기존의 자료들을 짜집기하여 마치 진짜인 것처럼 말하는 건데요.

인공지능의 할루시네이션이란 영어로 환각 또는 환영이란 뜻으로 ‘AI’ 가 그럴듯한 거짓말을 만들어내는 것을 칭하는 용어입니다.

chatgptbing 또한 이 할루시네이션 문제로부터 자유롭지 못했습니다. 그래서 정확한 답변인지 완벽하게 확신할수가 없는 문제가 있습니다.

아이러니 하게도 질문할때 답변에 대한 정확한 정보를 내가 어느정도 알고 있어서 맞는지 아닌지 판단을 할 수 있어야 사용할 수 있는 이상한 현상이 이어지고 있습니다.

문제는 이 같은 할루시네이션은 기술이 발전 될수록 줄어들 수는 있지만 근본적으로 해결할 수는 없다는 점입니다.

왜냐하면 이 할루시네이션이 발생하는 근본적인 원인이 바로 llm 모델들이 학습하는 방식에 있기 때문입니다.

만약 인간들의 창작활동이 멈추게 되고 AI들이 자신들이 만든 결과물들을 다시 학습하게 되면 이런 할루시네이션이 더 심해질 것이고 그러면 퀄리티가 점점 떨어져서 상업성을 잃게 될 것입니다.

그래서 ai가 아무리 발달을 해도 인간을 대체하기는 현실적으로 어렵다는 평가가 많습니다.


LLM 모델의 특징과 한계

LLM (Large Language Models) 모델은 혁신적인 AI 기술의 일종이며, 다음과 같은 특징을 가지고 있습니다. 이러한 특징은 AI가 인간을 대체하기 어려운 이유와 연결됩니다:

  1. 언어 이해와 생성 능력: LLM 모델은 막대한 양의 텍스트 데이터를 학습하여 자연어 이해와 생성 능력을 갖추었습니다. 그러나 이러한 능력은 주로 텍스트 기반 작업에서 발휘되며, 복잡한 감정, 상호작용, 창의성과 같은 인간의 다양한 능력을 대체하기 어렵습니다.
  2. 데이터 의존성: LLM 모델은 학습 데이터에 의존합니다. 이 모델은 주어진 데이터를 통해 패턴을 학습하고 문제를 해결하는데 활용합니다. 따라서 새로운 상황이나 도덕적 판단을 필요로 하는 상황에서 제한적일 수 있으며, 인간의 판단과 윤리적 결정에 대한 데이터가 없는 경우 어려움을 겪을 수 있습니다.
  3. 상호작용 능력의 한계: LLM 모델은 한 번에 주어진 문맥에서 텍스트를 생성할 수 있지만, 실시간 대화와 상호작용에서의 한계가 있습니다. 인간-인간 상호작용은 감정, 커뮤니케이션 스타일, 상황에 민감하며, 인간의 정서와 민감성을 이해하고 대응하기 어려운 면이 있습니다.
  4. 창의성과 문제 해결: LLM 모델은 과거 데이터를 기반으로 작업을 수행하므로 새로운 문제나 상황에 대한 창의적인 접근과 해결 능력이 부족합니다. 인간은 독창성을 발휘하여 새로운 아이디어를 창출하고 예측할 수 없는 상황에서 문제를 해결하는 능력을 가지고 있습니다.
  5. 윤리적 판단: LLM 모델은 도덕적 판단 능력이 없으며, 데이터에 담긴 편향이 반영될 수 있습니다. 인간은 도덕적 지침과 윤리적 판단을 가지고 있어, 편향을 감지하고 교정할 수 있는 능력을 가지고 있습니다.

따라서, LLM 모델은 많은 분야에서 유용하게 활용되지만, 인간의 독특한 능력과 역할을 대체하기에는 한계가 있으며, 상호보완성을 통해 인간과 협력하여 높은 생산성과 효율성을 달성하는 데 기여할 수 있습니다.

AI, 인간을 대체할 수 없는 현실적인 이유”의 3개의 생각

  1. 핑백: 개발자 대체 AI로 현실화 가능?

  2. 핑백: AI가 100% 대체할 수 없는 업무?

  3. 핑백: AI가 100% 대체할 수 없는 사람만의 역량 🚀

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다