ChatGPT1 [잡글] chatGPT는 자주 틀린다. chatGPT는 약간 그럴듯하게 알려주는게 잘못된 정보를 알려주지 않는 것 보다 중요하게 세팅되어 있는 것 같다. 그래서 알아서 걸러들어야한다. 이번에 질문한게 2연속으로 잘못 대답한게 재밌어서 한번 올려본다. 상황은 친구가 사탕을 먹으려고 해서 장난으로 절반으로 잘라달라고 했다(엄청 딱딱한 사탕이라 못자른다). 당연히 못자르고, 그럼 절반만 녹혀먹고 달라고 했다(장난임). 그래서 1cm 짜리 사탕이라면 겉부터 몇 mm를 녹혀먹어야 절반인지 궁금해져서 계산해보니 2.1mm가 나왔다. 엄청 대충 계산했기에 검증을 위해 chatGPT에 물어봤더니 2.5mm라고 한다. 아 역시 내가 틀렸네 생각하며 어케 계산했는지 물어봤다. 다 구해놓고 0.2143cm 이걸 2.5mm 라고 출력한다 ㅋㅋ 아무튼 그래서 2.1.. 2023. 3. 2. 이전 1 다음