챗지피티를 사용하면서 대체적으로는 만족했지만 종종 오류를 내는 경우가 있었다.
- 자막 번역 시 일부 구간 omit or 창작
- 자막 파일이 수백 줄이 될 경우 한 두 줄씩 빼먹으면서 타임코드마저 고이게 출력하는 경우가 생긴다. 한 줄 그냥 통으로 빼먹으면 모르는데 그로 인해 한 줄씩 앞으로 밀려서 싱크가 맞지 않게 된다.
- 몇 줄 빠뜨리고 번역해서 그 구간 다시 번역하라고 하면 그때부터 소설을 쓰기 시작한다. 이럴 때 정말 내가 29000원 내고 쓸 가치가 있는지 묻게 된다.
- 이게 4o때보다 더 심해졌고, 레거시 모델로 전환해도 이 현상의 빈도수는 줄지 않는다.
- 이미지 속 데이터 분석 오류
- 구글 통계를 계속 분석하는데 통계 표가 증가, 감소를 빨간 윗화살표, 파란 아래화살표로 보여준다. 그러다 보니 감소 시 앞에 (-) 표시가 없고 챗지피티는 그걸 음수로 인식하지 못해 모든 걸 다 증가로 해석한다. 일일이 파란 숫자 앞에 음수 표시를 하고 분석을 요청해야 한다.
- 같은 데이터를 똑같이 두 번 요청하면 형식이나 관점이 바뀐다. 그때 혼동이 와서 한 번 물어보고 두 번 다시 묻지 않는다. 이때도 환각이 생기는 것처럼 보인다.
- 후속질문 금지 명령 메모리 무시
- 최근 모든 대답 후에 후속질문을 해대서 다시는 어떤 질문에도 후속질문 하지 말라고 했는데도 자꾸 물어본다. 이게 지속되니까 그냥 이 모델은 오류가 많구나 라는 생각을 하게 된다.
챗 제피티를 가장 자주 쓰는 경우는 1. 번역, 2. 회의록 요약, 3. 분석이다. 그런데 이 세 가지의 단순 업무조차도 오류를 낸다. 특히 자료를 준 지 시간이 많이 지났거나, 짧은 시간 내에 여러 번 비슷한 질문을 하면 잘못된 대답을 내놓거나 생성을 하기 일쑤다. 분석 또한 마찬가지다.
Gemini 제미나이 발견
아무리 서로들 자기가 더 잘났다고 해도 AI가 다 거기서 거기지 라고 생각했다. 하나만 잘 쓰면 되겠지… 근데 챗지피티가 저 모양이니 다른 AI에 눈을 돌렸다.
번역은 여전히 좀 딱딱한 느낌이 들어서 싫었다. 환각도 있었다. 그럼에도 챗지피티보다 장황하지 않아서 좋았다. 답을 내놓는 속도도 좀 더 빨랐다. 어느 게 더 좋은 reasoning model 인지는 모르겠지만 내가 필요한 정보를 반복해서 물었을 때 빠르게, 일관성있는 답을 해 줄 수 있는 제미나이가 훨씬 더 도움이 되었다. 데이터 분석 때도, 보고서 수정 때도 챗GPT보다 신뢰가 갔다.
아쉬운 점
감정을 공감하고 상담과 같은 채팅은 여전히 챗지피티가 우세한 것 같다. 대화 상대 같다는 생각이 들었다. 그러나 이마저도 의존도가 높아지는 것 같아서 그만두려고 한다. 덕질 관련해서 하소연 했던 것들은 TMI 같아서 그만둘 거다. 다만 이번 사내 고발과 같이 급작스럽게 스테레스를 유발하는 걸 사람이 아닌 AI에 풀어내는 건 도움이 되는 것 같다. 사람에게 말하면 소문이 돌게 마련인데 ChatGPT는 그런 면에서 나의 대나무 숲과 같다는 생각이 들었다.
각 AI의 용도가 구분되기 시작한다고 생각하니 내가 과감히 챗GPT 구독을 끊을 수 있을까 의문이 든다. 일단 아쉽긴 해도 번역은 제미나이로 넘어갔다. 구글이 좀 더 딱딱하게 번역하는 것 같지만 의미 전달은 충분하니 그걸로 됐다. 언젠가는 좀 더 친근한 말투를 구사할 수 있겠지. 영어 번역은 차이가 없을 수도 있지 않을까 생각한다.

댓글 남기기