이 때까지 내가 이해하기로는 이것들은 비지도학습이다. 그런데 엄청난 학습을 통해 훈련해서 뭔가 대단한 것이 나오는 것 같다. 그런데, 이게 맞는 방향인지 모르겠다. 이 학습에만 엄청난 전기요금이 든다는데, 이런 식의 방법론이 올바른 방향인지 조금은 의심이든다.
내 뇌피셜로는 이런 비지도 학습이 인간이 이 때까지 구축해둔 지식을 세월을 거슬러 올라가 처음부터 훈련하는 것 아닌지 의심이 든다. 어떻게 보면 사람의 뇌는 엄청나게 좋은 GPU 머신이다. 여러 사람들(많은 GPU들이) 이 오랜세월 동안 구축한 언어 정보(형태소, 언어문법)를 무시하고(무시했다는 표현이 좀 그런데, 그냥 해당 label을 이용하지 않았다는 의미이다.) 그냥 깡으로 학습하는 느낌이다. 그렇다보니 뭔가 비효율적으로 엄청난 에너지를 소모하는 것 아닌가 하는 의구심이 든다.