Computer/Machine Learning

인공지능, 언어, 논리, 사고

Novelism 2024. 4. 17. 23:54

 

 

# 이 글은 뇌피셜을 좀 많이 포함하고 있습니다. 검증되지 않은, 주장이라고 하기에도 부족한 그냥 초기 가설 정도일 뿐입니다.

 

 

 거대 언어모델이 가장 범용 인공지능에 가까워 보이는 것은 뭔가 중요한 의미가 있을 것입니다. 

 그것은 어쩌면 언어의 힘일지도 모릅니다. 

 

 우리는 언어로 표현하기 전에, 어떤 생각을 떠올릴 수 있습니다. 

 하지만 그렇게 떠올린 생각은 명확하지 않습니다.

 그리고 그것을 명확하게 하기 위해 언어로 표현하려고 시도합니다.

 그리고 그 생각을 어떠한 완결성을 가지는 모순 없는 언어로 표현되면 그것을 이해한 것처럼 느낍니다. 

 

 언어는 신비한 것입니다. 

 모호한 생각만이 있는 것이 중첩된 양자상태라 한다면, 그것을 언어로 표현한 것은 특정 상태로 콜랩스된 상태처럼 느껴집니다. 처음 든 생각이 언어로 표현된 것과 동일한 생각은 아니라는 점에서도 그렇습니다. 

 

 저는 사고를 가속하기 위해서 언어로 전환하지 않고 생각을 감각처럼 빠르게 진행하는 연습을 해본 적이 있습니다, 불가능한 것 같진 않았지만 효용성이 있는지는 잘 모르겠습니다. 

 언어는 우리의 사고를 보다 명확하게 합니다. 그리고 사고는 언어를 통해서 진행되는 것 같습니다.

 

 과거 언어의 힘을 과하게 믿는 사람들은 언어가 인간의 사고를 지배한다는 주장을 하기도 했습니다. 제가 고등학교를 다닐 때는 그런 생각을 좀 강하게 믿는 사람들도 있었고, 그런 관점에서 나온 글도 본 기억이 있습니다. 

 일단 저는 그런 생각에는 반감을 가지고 있습니다. 단어가 없다고 하여 그 개념을 이해할 수 없는 것도 아니고, 그런 주장에 대한 반론을 제기할 수 있는 사례들도 많았으니까요. 다만, 어떤 개념에 대응되는 단어가 있다는 것은 상당히 편리한 일입니다. 보통은 개념이 먼저 생기고, 그것을 표현하기 위해 단어를 만드는 것이겠죠. 

 

 그런데 최근 인공지능 발전을 보면서 언어가 내 생각보다는 중요한 게 아닌가?라는 생각이 들었습니다. 

특히 논리적 사고라는 점에서 말입니다.

 머신러닝은 기본적으로 데이터를 통한 학습이기에 귀납적입니다. 많은 데이터로부터, 주어진 상황에서 적절한 대답을 확률적으로 학습합니다. 밥을 먹었니?라고 물었는데 "집에 간다."라는 대답을 할 확률은 낮지만, "먹었다."라는 대답을 할 확률은 높을 것입니다. 

 

 초기에 개발된 언어모델들은 바로 전 문장에 대한 대답은 하지만, 좀 더 긴 대화에 대한 내용은 제대로 답하지 못했던 것 같습니다. 그리고 거의 주어진.. 학습에 있었던 내용만을 적당히 찾아서 대답하는 것이 아닌가 라는 느낌이 들었는데, 최근의 언어모델은 혹시 대화를 이해하고 대답하는 것인가 라는 느낌이 들기도 합니다. 뭐 좀 루틴 한 대답도 많긴 합니다만... 

 

 이제부터는 그냥 근거가 희박한 그냥 제 감상 같은 것이라고 보시면 됩니다. 그냥 저의 개인적인 느낌이고 생각입니다. 맞는지 틀린 지는 하나하나 확인을 해봐야 합니다. 

 

고급 언어는 논리를 표현할 수 있는 도구입니다. 그 내용을 하나하나 명확히 이해하지 못할지라도, 논리 구조에 따라 진행할 경우 새로운 발견을 할 수 있습니다. 

 예를 들어 "A는 B이다"와 "B는 C이다. "라는 두 가지 명제가 있다면, "A는 C다. "라는 새로운 명제를 도출할 수 있습니다.

 혹시 언어체계 안에 있는 논리를 학습한다면, 별다른 논리를 구현하지 않더라도 논리적 사고를 할 수 있게 되는 것이 아닌가...라는 생각이 들었습니다. 

 논리의 체인이 상당히 길어질 경우, 그 과정 하나하나를 전부 이해하기는 쉽지 않습니다.

인간의 사고에서도 A는 B이고 B는 C이고 C면 D고 D는 E고..... 이런 것이 쭉 진행되다가 A이므로 Z라는 결론이 나왔을 때... 그 사이의 모든 논리를 하나하나 이해하지 못할지라도, AZ라는 새로운 것을 발견할 수 있습니다.

 

 또 다른 논리의 언어인 수학 체계를 생각해 보면,... 물리학을 공부하는 사람들에게는 흔히 경험하는 일이겠지만... 

 가정이 있고 결론이 있습니다. 그 사이에는 수학적인 논리체계가 유지되어야 합니다. 그리고 그 과정 하나하나에서 나오는 수식을 전부 이해하지는 못합니다. 그런데도 결론은 나올 수 있고, 그것은 놀라운 발견이 될 수 있습니다. 

 

 예를 들어 아인슈타인의 특수 상대성이론은 모든 관성 기준계에서 물리법칙은 동일해야 한다는 상대성 원리와 광속이 불변이라는 가정에서부터 출발합니다. 

상대성 원리를 좀 다르게 해석한다면, 내가 움직이는지, 기차가 움직이는지 알 수 없습니다. 

 그리고 그 이후로부터는 논리적으로 수식을 전개합니다. 그리고 결론적으로 상대성 이론이 수식으로 튀어나옵니다. 

 ... 이 내용은 배운 지 오래돼서 자세히 적을 자신이 없어서 생략합니다. 

수학뿐만이 아니라 논리 체계를 따르는 인간의 언어도 비슷한 힘을 가지고 있습니다. 

 

그래서 일단 제 의문점은 혹시 인공지능이 논리를 학습한 것이 아닌가?라는 것입니다. 

그것이 사실이라면, 귀납적인 수준으로 개별 지식에 대해서 학습한 대로 대답한 것이 아니라, 논리적인 유추로부터 새로운 결과를 낳는 것도 가능해질 수 있지 않은가?라는 의문이 듭니다. 

 A는 B와 B는 C다 만을 학습했을 때, 학습데이터에 없었던 A는 C라는 결론을 스스로 내릴 수 있다면 인공지능은 창조적인 사고에 한걸음 더 다가갔다고 볼 수 있지 않겠습니까?