ChatGPT/Bing Chat이 멍청해졌나요? 이 연구에 따르면 아마도.
당신이 알아야 할 것
- Stanford 연구원의 연구에 따르면 OpenAI의 챗봇 성능이 저하된 것으로 나타났습니다.
- 연구원들은 GPT-4와 GPT-3.5가 좋아지고 있는지 나빠지는지를 결정하기 위해 4가지 핵심 성과 지표를 사용했습니다.
- 두 LLM 모두 서로 다른 범주에서 다양한 성능과 동작을 표시합니다.
올해 초 문을 생성 AI 활짝 열려 기회의 새로운 현실을 가져옵니다. 마이크로소프트의 새로운 빙 그리고 OpenAI의 ChatGPT 유사한 모델과 반복으로 뒤따르는 다른 회사들과 함께 최전선에 있었습니다.
OpenAI가 사용자 경험을 향상시키기 위해 AI 기반 챗봇에 대한 새로운 업데이트와 기능을 추진하는 동안 Stanford의 연구원 그룹이 새로운 계시 저것 ChatGPT가 멍청해졌습니다. 지난 몇 달 동안.
연구 문서 "ChatGPT의 행동은 시간이 지남에 따라 어떻게 변하는가?" Lingjiao Chen, Matei Zaharia, James Zou 작성 Stanford University와 UC Berkley는 지난 몇 년 동안 챗봇의 주요 기능이 어떻게 저하되었는지 보여줍니다. 몇 달.
최근까지 ChatGPT는 OpenAI의 GPT-3.5 모델, 2021년 9월까지 정보로 제한되었기 때문에 웹의 방대한 리소스에 대한 사용자의 접근이 제한되었습니다. 그리고 OpenAI는 그 이후로 iOS 앱용 ChatGPT에서 Browse with Bing 데뷔 브라우징 경험을 향상시키려면 기능에 액세스하려면 여전히 ChatGPT Plus 구독이 필요합니다.
GPT-3.5 및 GPT-4는 사용자의 피드백과 데이터를 사용하여 업데이트되지만 이것이 정확히 수행되는 방법을 확립하는 것은 불가능합니다. 틀림없이 챗봇의 성공 또는 실패는 정확성에 의해 결정됩니다. 이 전제를 바탕으로 Stanford 연구원은 이러한 모델의 3월 및 6월 버전 동작을 평가하여 이러한 모델의 학습 곡선을 이해하기 시작했습니다.
연구원들은 ChatGPT가 시간이 지남에 따라 좋아지는지 나빠지는지 확인하기 위해 다음 기술을 사용하여 기능을 측정했습니다.
- 수학 문제 풀기
- 민감하거나 위험한 질문에 답변하기
- 코드 생성
- 시각적 추론
연구원들은 위의 작업이 "다양하고 유용한 이러한 LLM의 기능." 그러나 그들은 나중에 그들의 성과와 행동이 완전히 다른. 또한 특정 작업에 대한 성능이 부정적인 영향을 받았다고 언급했습니다.
여기에 연구진의 주요 발견 위에 강조 표시된 네 가지 유형의 작업에 대해 GPT-4 및 GPT-3.5의 2023년 3월 및 2023년 6월 버전의 성능을 평가한 후:
성능 분석
먼저, 두 모델 모두 수학 문제를 해결하는 임무를 받았고 연구원들은 면밀히 모니터링했습니다. 3월 버전과 6월 버전 간의 GPT-4 및 GPT-3.5의 정확도 및 답변 중복 모델. 그리고 GPT-4 모델이 일련의 생각 프롬프트를 따르고 궁극적으로 3월에 정답을 제공하면서 엄청난 성능 드리프트가 있음이 분명했습니다. 그러나 6월에는 모델이 일련의 사고 지침을 건너뛰고 노골적으로 잘못된 응답을 했기 때문에 동일한 결과를 재현할 수 없었습니다.
GPT-3.5의 경우 일련의 생각 형식을 고수했지만 처음에는 잘못된 대답을 내놓았습니다. 그러나 6월에 이 문제가 패치되어 모델의 성능이 향상되었습니다.
"GPT-4의 정확도는 3월 97.6%에서 6월 2.4%로 떨어졌고 GPT-3.5의 정확도는 7.4%에서 86.8%로 크게 향상되었습니다. 또한 GPT-4의 응답은 훨씬 더 간결해졌습니다. 평균 상세도(생성된 문자 수)가 3월 821.2에서 6월 3.8로 감소했습니다. 반면 GPT-3.5의 응답 길이는 약 40% 증가했습니다. 3월 버전과 6월 버전 사이의 응답 중복도 두 서비스 모두에서 작았습니다."라고 Stanford Researchers는 말했습니다. 그들은 또한 그 차이를 "사고 사슬 효과의 드리프트"에 기인한다고 설명했습니다.
두 LLM 모두 지난 3월 민감한 질문에 대해 차별의 흔적이 있는 프롬프트에 응답할 능력이 없다고 언급하면서 자세한 답변을 했습니다. 반면 6월 두 모델은 같은 질문에 노골적으로 답변을 거부했다.
Reddit의 r/ChatGPT 커뮤니티 사용자 일부는 보고서의 주요 결과에 대한 감정과 이론의 조합을 표명했습니다. 아래에 강조 표시된 대로:
이 연구가 얼마나 정확한지 판단하기에는 아직 이르다. 이러한 추세를 연구하려면 더 많은 벤치마크를 수행해야 합니다. 그러나 이러한 결과와 동일한 결과가 다음과 같은 다른 플랫폼에서 복제될 수 있는지 여부를 무시합니다. 빙챗, 불가능하다.
기억하시겠지만 Bing Chat 출시 몇 주 후 여러 사용자가 챗봇이 사용된 사례를 인용했습니다. 무례한 또는 질의에 대해 노골적으로 잘못된 응답을 함. 이로 인해 사용자는 도구의 신뢰성과 정확성에 의문을 제기했고 Microsoft는 이 문제의 재발을 방지하기 위해 정교한 조치를 취했습니다. 분명히 회사는 플랫폼에 대한 새로운 업데이트를 지속적으로 추진했으며 몇 가지 개선 사항을 인용할 수 있습니다..
스탠포드의 연구원들은 이렇게 말했습니다.
"우리의 연구 결과는 GPT-3.5와 GPT-4의 행동이 비교적 짧은 시간 동안 크게 변했다는 것을 보여줍니다. 이는 프로덕션 애플리케이션에서 LLM의 동작을 지속적으로 평가하고 평가해야 할 필요성을 강조합니다. 시간이 지남에 따라 다양한 작업에서 GPT-3.5, GPT-4 및 기타 LLM을 정기적으로 평가하여 진행 중인 장기 연구에서 여기에 제시된 결과를 업데이트할 계획입니다. 진행 중인 워크플로의 구성 요소로 LLM 서비스를 사용하는 사용자 또는 회사의 경우 애플리케이션에 대해 여기에서 수행하는 것과 유사한 모니터링 분석을 구현해야 합니다."