본문 바로가기
ETC/잡글

[잡글] chatGPT는 자주 틀린다.

by Nahwasa 2023. 3. 2.

  chatGPT는 약간 그럴듯하게 알려주는게 잘못된 정보를 알려주지 않는 것 보다 중요하게 세팅되어 있는 것 같다.

그래서 알아서 걸러들어야한다. 이번에 질문한게 2연속으로 잘못 대답한게 재밌어서 한번 올려본다.

 

  상황은 친구가 사탕을 먹으려고 해서 장난으로 절반으로 잘라달라고 했다(엄청 딱딱한 사탕이라 못자른다). 당연히 못자르고, 그럼 절반만 녹혀먹고 달라고 했다(장난임). 그래서 1cm 짜리 사탕이라면 겉부터 몇 mm를 녹혀먹어야 절반인지 궁금해져서 계산해보니 2.1mm가 나왔다. 엄청 대충 계산했기에 검증을 위해 chatGPT에 물어봤더니 2.5mm라고 한다.

 

  아 역시 내가 틀렸네 생각하며 어케 계산했는지 물어봤다. 다 구해놓고 0.2143cm 이걸 2.5mm 라고 출력한다 ㅋㅋ 아무튼 그래서 2.1 mm 녹혀먹으면 되는 것 같다!

 

  그리고 내가 계산하면서 구의 부피 공식을 썼으므로 생각나서 도형공식 노래를 어떤 노래 기반으로 만들었냐고 물어봤다.(음까지 새로 만들진 않았을까 싶었다).

 

  ㅋㅋㅋ. 심지어 Shape of you가 나중에 나왔다 ㅋㅋ. 확실히 정답여부보다는 그럴듯하게 알려주는데 더 집중하는 것 같다.

댓글