채팅GPT

소식

홈페이지홈페이지 / 소식 / 채팅GPT

Aug 18, 2023

채팅GPT

PubMed Google Scholar에서 이 저자를 검색할 수도 있습니다. 귀하는 귀하의 기관을 통해 이 기사에 대한 전체 접근 권한을 갖습니다. ChatGPT와 같은 AI 챗봇은 과학적인 데이터베이스와 연결되어

PubMed Google Scholar에서도 이 저자를 검색할 수 있습니다.

귀하는 귀하의 교육기관을 통해 이 기사에 대한 전체 접근 권한을 갖습니다.

ChatGPT와 같은 AI 챗봇은 대화형 검색 경험을 만들기 위해 과학 데이터베이스와 연결되고 있습니다. 출처: Gabby Jones/Bloomberg via Getty

Google의 Bard 및 Microsoft의 Bing과 같은 인터넷 검색 엔진에 등장한 대화형 AI 기반 챗봇은 점점 더 과학적 검색에도 변화를 가져올 것으로 보입니다. 8월 1일, 네덜란드의 거대 출판사인 Elsevier는 Scopus 데이터베이스의 일부 사용자를 위한 ChatGPT 기반 AI 인터페이스를 출시했으며, 영국 기업인 Digital Science는 Dimensions 데이터베이스를 위한 AI LLM(대형 언어 모델) 도우미의 비공개 시험판을 발표했습니다. 한편, 미국 회사 Clarivate는 LLM을 Web of Science 데이터베이스로 가져오는 작업도 진행 중이라고 밝혔습니다.

과학 검색을 위한 LLM은 새로운 것이 아닙니다. Elicit, Scite 및 Consensus와 같은 신생 기업에는 이미 무료 과학 데이터베이스 또는 (Scite의 경우)에 의존하여 해당 분야의 결과를 요약하거나 최고의 연구를 식별하는 데 도움이 되는 AI 시스템이 있습니다. 출판사와의 파트너십을 통해 유료화 연구 논문에 액세스할 수 있습니다. 그러나 이제 과학 초록과 참고 문헌으로 구성된 대규모 독점 데이터베이스를 소유한 기업들이 AI 러시에 합류하고 있습니다.

Scopus AI라고 불리며 파일럿으로 출시된 엘스비어의 챗봇은 연구원들이 익숙하지 않은 연구 주제에 대한 요약을 신속하게 얻을 수 있도록 돕기 위한 가볍고 재미있는 도구라고 이 도구 개발을 감독한 런던의 Elsevier 임원인 Maxim Khan은 말합니다. 자연어 질문에 대한 응답으로 봇은 LLM GPT-3.5 버전을 사용하여 연구 주제에 대한 유창한 요약 단락, 인용 참고문헌 및 탐구할 추가 질문을 반환합니다.

텍스트 기반 질문에 대한 응답으로 Scopus AI는 관련 참고문헌뿐만 아니라 연구 주제에 대한 유창한 요약을 반환합니다. 크레딧: Scopus AI

검색, 특히 과학 검색을 위한 LLM에 대한 우려 사항은 LLM이 신뢰할 수 없다는 것입니다. LLM은 자신이 생성한 텍스트를 이해하지 못합니다. 그들은 문체적으로 그럴듯한 단어를 뱉어내는 것만으로도 효과가 있습니다. 그들의 결과물에는 사실적 오류와 편견이 포함될 수 있으며, 학자들이 빠르게 발견한 것처럼 존재하지 않는 참조를 구성할 수 있습니다.

따라서 Scopus AI는 제한적입니다. 5~10개의 연구 초록을 참조하여 답변을 생성해야 합니다. AI는 이러한 초록 자체를 찾지 않습니다. 오히려 사용자가 쿼리를 입력한 후 기존 검색 엔진이 해당 초록을 질문과 관련된 것으로 반환한다고 Khan은 설명합니다.

다른 많은 AI 검색 엔진 시스템도 유사한 전략을 채택하고 있다고 싱가포르 경영 대학(Singapore Management University)의 사서이자 AI 검색 도구를 따르는 Aaron Tay는 말합니다. LLM은 다른 검색 엔진이 검색하는 관련 정보를 요약하는 것으로 제한되기 때문에 이를 검색 증강 생성이라고도 합니다. Tay는 유사한 기술을 사용하는 Bing 및 Perplexity와 같은 인터넷 검색 AI 챗봇에 대한 연구를 가리키며 “LLM은 여전히 ​​때때로 환각을 일으키거나 상황을 꾸며낼 수 있습니다.”라고 말합니다.

Elsevier는 최신 논문을 선택하기 위해 AI 제품을 2018년 이후 출판된 논문만 검색하도록 제한했으며, ​​응답 시 반환된 초록을 적절하게 인용하고, 안전하지 않거나 악의적인 쿼리를 피하고, 초록이 있는 경우 이를 명시하도록 챗봇에 지시했습니다. 수신한 초록에는 관련 정보가 없습니다. 실수를 피할 수는 없지만 최소화할 수는 있습니다. Elsevier는 또한 봇의 '온도' 설정을 낮게 선택하여 AI의 예측 불가능성을 줄였습니다. 이는 봇이 응답에서 가장 그럴듯한 단어에서 벗어나는 빈도를 측정하는 것입니다.

사용자가 단순히 봇의 단락을 복사하여 자신의 논문에 붙여넣어 도구를 효과적으로 표절할 수 있을까요? Khan은 그럴 가능성이 있다고 말합니다. Elsevier는 지금까지 연구자들이 요약을 책임감 있게 사용하도록 요청하는 지침을 통해 이 문제를 해결해 왔다고 그는 말합니다. Khan은 자금 제공자와 출판사가 유사한 지침을 발표하여 논문 작성이나 동료 검토 수행에 LLM이 사용되는 경우 투명한 공개를 요구하거나 어떤 경우에는 LLM을 전혀 사용해서는 안 된다고 명시하고 있음을 지적합니다.