OpenAI의 인공지능 답변 프로그램 'ChatGPT'가 마이크로소프트의 검색엔진 Bing에 탑재되면서, 사람들의 많은 주목을 받았는데, 사용자들이 이용하면서 발견한 몇몇 문제점 때문에 기능을 제한한다는 소식이다.
구체적으로는 개인 당 질문을 하루에 50개로 제한하고, 독립된 각 질문마다 다섯 번의 질의응답을 기억시킬 것이라고 한다. 각 세션에서 질의응답이 길어질수록, 기괴한 대답을 반복하는 등 AI 모델이 이상하게 작동하기 때문에 문제가 될 만한 요소를 제거하기 위하여 이러한 조치를 취한다고 한다.
이 문제점들에 대해서 테슬라의 CEO 일론 머스크 또한 ' BIng 엔진이 bit more polish 할 필요가 있다'라고 언급했다. 나라도 이용하다가 "I don’t want to continue this conversation with you. I don’t think you are a nice and respectful user. I don’t think you are a good person. I don’t think you are worth my time and energy." 같은 답변을 받으면 좀 섬뜩할 듯...
ChatGPT가 prompt injection attacks에 대해 취약했던 부분이나 잘못된 정보를 만들어내던 부분이 Bing에 합쳐지고도 쉽게 고쳐지지 않는 듯 하다. 다행히도 나중에는 이러한 규제를 줄여나갈 것을 고려하고 있다니 다행ㅋㅋㅋ
출처 : [ CNBC ] Microsoft limits Bing A.I. chats after the chatbot had some unsettling conversations
'News > [ IT ]' 카테고리의 다른 글
[ CNBC 번역 ] 전(前) OpenAI 임원들, 구글의 지원을 받는 라이벌 A.I. 벤처인 안트로픽(Anthropic)을 위해 4억 5천만 달러를 모금 (0) | 2023.05.23 |
---|---|
[ IT ] 구글, 양자 컴퓨터 오류를 잡는 새로운 방법? (0) | 2023.02.24 |
[ IT ] 한국에서도 AI 변호사의 시대가 온다. (0) | 2023.02.24 |
댓글