인하대학교
소상공인 경제생태계
연구센터

EVENTS

[기고문] 챗GPT 답변, 사용자 불만은… ① 질문 의도 오해 ② 깊이 부족 ③ 부정확[박재혁의 데이터로 보는 세상]

생성형 AI, 질문 의도 잘못 이해
종종 거짓된 내용으로 답변
편향된 답변은 잘 의식못해 심각
내용 구체화해 다시 물었을 때 답변 불만족 해소 비율 높아

사진=동아일보

[동아일보] 챗GPT 같은 생성형 AI 모델을 사용할 때 질문이나 요구 사항들을 언어모델이 잘 이해할 수 있도록 작성하는 방법, 즉 ‘프롬프트 공학’은 AI를 잘 사용하기 위한 핵심 능력이다. 다양한 가이드라인과 팁이 소개되고 있지만, 기술에 익숙하지 않은 일반 사용자들은 종종 불만족스러운 상황을 경험하고, 사용을 포기하기도 한다. 이러한 문제점을 해결하기 위한 HCI 분야의 연구들이 진행되고 있다. 우리나라의 KAIST 연구팀을 중심으로, 그리고 필자도 참여한, 최근 연구(Understanding users’ dissatisfaction with chatgpt responses·김윤수 등)는 생성형 AI 모델 사용자들이 어떤 상황에서 어떤 이유로 불만족을 느끼는지, 사용자 특성에 따른 차이를 분석했다.

…(중략)

우리 센터의 공동 연구자인 KDI국제정책대학원 박재혁 교수님께서 작성하신 동아일보 기고문입니다.
아래는 간략한 내용 요약입니다.
내용 요약:
챗GPT 같은 생성형 AI 모델 사용 시 ‘프롬프트 공학’이 중요하지만, 사용자 불만족이 빈번하다. KAIST 연구는 AI가 의도를 이해하지 못하거나 부정확한 정보를 제공할 때 실망이 크다고 분석했다. 사용자는 질문을 다시 작성하거나 AI 답변의 오류를 지적하며 대응하지만, 지식 수준에 따라 반응이 달랐다. 또 다른 연구는 AI 모델이 사용자 의견에 영향을 미칠 수 있음을 보여주며, 사용자들이 AI의 편향성을 인식하지 못한다고 지적한다. AI 활용에 대한 기본 지식과 정책적 방안이 필요하다.


출처 : 동아일보(https://www.donga.com/)
기사원문: https://www.donga.com/news/Opinion/article/all/20240515/124949112/1

Previous
Next

Relative Site

소상공인 지역경제 정책정보마당 >

데이터 코리아 >

TEVECON 경제시뮬레이션 모델 >