한 필드의 논문을 2년 이상 꾸준히 읽으면 점점 전체적 이해가 생기며 해석이 쉬워져야하는데 AI는 너무 빨리…
한 필드의 논문을 2년 이상 꾸준히 읽으면 점점 전체적 이해가 생기며 해석이 쉬워져야하는데 AI는 너무 빨리 개발되고 있어서 시간이 갈 수록 모르는 내용이 더 늘어나고 있다. 오늘 읽은 내용 중 인상 깊었던 것: 1, AI 모델 성능이 높아질 수록 고집이 세진다. 초기에는 사용자가 AI 가 내놓은 답을 틀렸다고 수정해주면 받아들였지만 능력이 높아질 수록 그걸 거부하는 경향이 생기고 있다. 2. 훈련 데이타에 따라, 훈련 주체에 따라 각 AI 모델이 갖는 값이 다르다. 근데 개개인 인간 사이에 큰 차이가 있어도 개인이 전체에 미치는 영향이 미미해 별로 큰 문제가 되지 않았지만 AI처럼 큰 시스템의 경우 이런 저런 편견이나 오류를 어떻게 해결할 것인가가 큰 문제가 된다. 예를 들어 미국에서 훈련된 AI와 중국에서 훈련된 AI가 미국인 혹은 중국인의 생명 가치를 판단할 때 똑같이 할 것인가. 지금까지는 어떻게든 기능과 성능 향상에 포커스가 맞춰져 있어서 AI 모델이 Anthropic에서 나왔는지 구글인지 OpenAI인지 별로 신경 안 쓰고 제일 최신 제일 성능 좋다는 걸로 갈아타며 썼지만, 기능 면에서 모두 상향평준화가 되고나면 각자 모델의 성격과 태도를 봐가며 골라쓰게 될 수 있다는 뜻이다.


Leave a Reply