글_ 엘리엇 존스-가르시아 (Eliot Jones-Garcia)
인공지능(AI), 그리고 최근에는 생성형 AI(genAI)의 가용성 확대와 대중적 사용 증가는 과학 및 정책 커뮤니티 전반에 걸쳐 관심을 불러일으켰습니다. 생성형 AI는 방대한 데이터세트에서 패턴을 식별하여 텍스트, 이미지, 코드 및 기타 콘텐츠를 생성하는 모델의 한 종류를 지칭합니다. 이러한 도구는 사용자가 일상 언어를 통해 AI 시스템과 상호 작용할 수 있게 하여, 고급 기술에 더 쉽게 접근하고 실험할 수 있도록 만듭니다. 2022년 ChatGPT가 대중에게 공개된 이후, 생성형 AI는 연구, 소통, 혁신을 위한 새로운 가능성을 열며 빠르게 발전해 왔습니다.
현재 점점 더 많은 생성형 AI 애플리케이션이 경제 및 사회 분석을 간소화하고, 프로그램의 영향을 개선하며, 여러 부문에 걸친 의사 결정에서 유용한 역할을 할 것을 약속하고 있습니다. 이 모든 것은 CGIAR과 IFPRI의 핵심 임무인 식량 시스템, 지속 가능한 개발, 기후 적응 등의 연구 및 정책에 핵심적인 요소입니다. 그러나 생성형 AI는 단순한 기술 혁신 그 이상으로, 우리가 지식을 생성하고, 해석하며, 공유하는 방식을 바꾸고 있습니다. 이러한 변화는 열정과 낙관론뿐만 아니라, 잠재적 위험과 의도하지 않은 영향에 대한 불확실성과 우려도 함께 가져옵니다.
생성형 AI를 둘러싼 많은 불확실성은 기술 자체—환각(조작되거나 부정확한 정보), 체계적 편향, 법적 위험, 상당한 환경 비용에 취약한—뿐만 아니라, 그것이 설명되고 홍보되는 방식에서도 비롯됩니다. 대중적인 담론은 종종 그 객관성과 신뢰성을 과장하여, 그 설계에 내재된 인간의 선택과 가정을 가립니다. 생성형 AI의 가치는 인간의 판단과 분리될 수 없습니다. 즉, 그것을 사용하는 사람들의 역량, 윤리, 감독에 따라 달라집니다. 종종 중립성이나 효율성으로 가는 지름길로 제시되지만, 이는 여전히 비판적 해석과 윤리적 성찰을 요구하는 하나의 도구일 뿐입니다.
이 게시물은 IFPRI의 ‘식량 시스템 연구를 위한 AI(AI For Food Systems Research)’ 이니셔티브 시리즈의 첫 번째 글입니다. 이 시리즈는 독자들에게 AI 도구 사용법을 가르치는 것이 아니라 성찰의 기회를 제공하는 것을 목표로 합니다. 주요 질문과 과제를 제시함으로써, 우리는 AI가 우리의 작업 방식을 어떻게 바꾸고 있는지, 그리고 그 사용 방향을 정하기 위해 어떤 역량, 주의, 추가 논의가 필요한지에 대한 더 긴 대화를 시작하고자 합니다.
CGIAR 연구에서 생성형 AI를 활용할 기회
생성형 AI는 이미 CGIAR 전반의 연구 수행 방식을 바꾸기 시작했습니다. 생성형 AI는 연구자들이 방대한 양의 오픈 액세스 문헌, 정책 문서, 역사적 데이터세트를 스캔하고 요약하여 최신 정보를 유지하도록 도울 수 있습니다. 이는 시간을 절약하고, 더 정보에 입각한 분석을 지원하며, 수동 검토의 부담을 줄일 수 있습니다. 오픈 액세스에 대한 CGIAR의 약속을 고려할 때, CGIAR의 출판물들이 웹에서 수집된 방대한 공개 데이터를 사용하는 ChatGPT와 같은 거대 언어 모델을 훈련시키는 데 도움을 주었을 가능성이 높으며, 이는 전 세계 농업 연구자들에게 더 나은 서비스를 제공할 수 있게 합니다.
생성형 AI는 또한 연구의 더 창의적인 측면을 지원할 수 있습니다. 코드 작성, 보고서 초안 작성, 커뮤니케이션 구성 등을 지원하고, 전반적으로 연구 결과의 도달 범위를 넓힐 수 있습니다. 일부 사례에서 CGIAR 연구자들은 이미 AI를 사용하여 정책 담당자를 위한 콘텐츠 개발 및 번역을 간소화했습니다.
더 나아가, 생성형 AI 도구는 연구자와 농부 간의 소통 방식을 개선하여 프로젝트 수행을 지원하는 데 사용될 수 있습니다. 예를 들어, 챗봇은 현지 언어로 질문에 답하거나 날씨, 해충 또는 토양 건강에 대한 실시간 현지화된 정보를 주문형으로 제공하여 농부들에게 디지털 농업 지도 요원과 유사한 것을 제공할 수 있습니다.
생성형 AI는 또한 정책 개발 및 의사 결정에서 점차 더 큰 역할을 할 것으로 보입니다. 글로벌 개발 기구들은 이미 복잡한 데이터세트를 종합하고 영양, 보건, 농업 투자에 대한 증거 기반 권장 사항을 생성하는 잠재력을 탐색하고 있습니다. 예를 들어, 글로벌 개발 문제에 맞춰진 모델을 사용하는 AI 기업 DevelopMetrics는 IFPRI, MercyCorps 및 기타 기관들과 협력해 왔습니다.
생성형 AI의 잠재적 위험
그러나 이러한 잠재적 이점에는 위험이 따릅니다. 생성형 AI 모델 훈련에 사용되는 대규모 데이터세트에는 종종 저작권이 있거나 독점적인 콘텐츠가 포함되어 있어 표절, 데이터 오용, 개인정보 침해에 대한 우려를 낳습니다. 이러한 모델은 “블랙박스(black boxes)”이기 때문에, 권위 있게 보이지만 사실적으로 틀리거나 완전히 조작된 결과물인 소위 환각을 생성할 수도 있습니다. 해당 분야에 대한 깊은 지식이 없으면 이러한 오류를 발견하기 어려워 잘못된 정보를 확산시킬 위험이 있습니다.
생성형 AI에 대한 과도한 의존은 독립적인 사고를 감소시키고 연구자들이 결과물을 무비판적으로 받아들이게 할 수 있습니다. 이러한 모델은 훈련 데이터의 패턴을 상속하고 증폭시키기 때문에, 사용자가 인식하지 못하는 사이에 성별, 인종 또는 민족, 연령, 지역, 이념과 관련된 기존의 편견을 강화할 수 있습니다. 편향을 바로잡으려는 선의의 노력조차도 복잡한 역학을 지나치게 단순화하거나 눈에 잘 띄지 않는 관점을 의도치 않게 배제하는 등 의도하지 않은 효과를 낳을 수 있습니다.
또한 생성형 AI에 대한 의존도 증가는 연구자들의 협력 및 소통 방식을 제한할 수 있다는 우려도 있습니다. 결과물이 빠르고 쉽게 생성될 때, 엄격하고 포용적인 연구에 필수적인 토론, 동료 피드백, 또는 집단적 의미 형성의 기회가 줄어들 수 있습니다.
연구 협력과 관련된 또 다른 문제는 불평등입니다. 경험이 적은 사용자가 생성형 AI로부터 가장 많은 이익을 얻을 것처럼 보일 수 있지만, 실제로는 그 반대인 경우가 많습니다. 더 많은 전문 지식을 가진 사람들이 일반적으로 효과적으로 프롬프트를 작성하고, 결과를 해석하며, 오류를 수정하는 데 더 나은 능력을 갖추고 있습니다. 이러한 역학 관계는 기존의 연구 역량 격차를 좁히기보다는 오히려 심화시킬 수 있습니다.
따라서 생성형 AI가 포용적이고 책임감 있는 도구로 기능하기 위해서는 윤리적인 모델 설계만으로는 충분하지 않다는 것이 분명합니다. 우리는 또한 연구자들이 실제로 AI와 어떻게 상호 작용하는지—무엇을 기대하고, 결과물을 어떻게 평가하며, 오해나 위험이 어디에서 발생하는지—에 대한 더 나은 이해가 필요합니다. 그러한 이해를 발전시키는 것은 기관의 리터러시를 구축하고, 연구를 약화시키기보다는 강화하는 방식으로 AI의 역할을 형성하는 데 필수적입니다.
(생성형) AI 리터러시
이러한 다양한 우려를 고려할 때, 연구에서 생성형 AI를 책임감 있게 사용하기 위한 최선의 접근법은 무엇일까요? 기관들은 책임감 있는 AI 원칙을 수립할 수 있지만, 이러한 지침은 종종 추상적이어서 실제 적용하기 어렵습니다. 그 효과는 기술적 구현뿐만 아니라, 연구자들이 다양한 실제 상황에서 이를 이해하고, 해석하며, 적용할 수 있는지에 달려 있습니다.
현재 생성형 AI 개발의 유망한 추세 중 하나는 (ChatGPT와 같은 범용 애플리케이션과는 대조적으로) 특정 작업이나 주제를 처리하도록 조정된 모델로 나아가는 것입니다. 예를 들어, Elicit 챗봇은 연구 논문에 대한 AI 기반 체계적 문헌 고찰을 수행합니다. 이는 특정 부문이나 사용자의 요구를 더 잘 반영하도록 만들어졌으므로, AI를 효과적이고 책임감 있게 사용하려는 연구자들에게 도움이 될 수 있습니다.
하지만 잘 맞춰진 모델에도 장단점이 있습니다. 예를 들어, Elicit은 90%의 정확도를 약속하며 웹사이트에서는 사용자에게 결과물을 면밀히 확인할 것을 권고합니다. 생성형 AI 모델을 개발하려면 상당한 기술 역량과 컴퓨팅 파워가 필요하며, 여전히 “쓰레기가 들어가면 쓰레기가 나온다”는 문제에 직면합니다. 낮은 품질의 훈련 데이터나 프롬프팅은 오해의 소지가 있는 통찰력을 낳아 의도하지 않은 편견을 강화하고 중요한 지식을 가릴 수 있습니다.
연구에서 책임감 있는 AI 사용의 과제를 해결하려면 더 나은 모델 이상의 것이 필요합니다. 이는 생성형 AI가 할 수 있는 것과 할 수 없는 것에 대한 공유되고 비판적인 이해를 요구합니다. AI 리터러시는 “개인이 AI 기술을 비판적으로 평가할 수 있게 하는 일련의 역량”으로, 위험을 완화하고 책임감 있는 적용을 보장하는 데 필수적입니다.
여기에는 다양한 모델의 강점과 한계를 이해하고, 생성형 AI 도구를 언제 사용해야 할지(또는 사용하지 말아야 할지) 알며, 이러한 결정을 더 넓은 연구 및 윤리적 틀 안에 위치시키는 것이 포함됩니다.
이제 여러 프레임워크가 연구자들이 이러한 역량을 구축하는 데 도움이 되는 점진적인 단계를 제시하고 있습니다. CGIAR에게는 다섯 가지 우선순위 영역이 두드러집니다.
- 역량과 한계 이해: 생성형 AI 도구가 특정 강점, 약점, 사용 사례를 가진 통계 모델임을 인식하는 것. 무엇을 할 수 있는지 아는 것만큼 언제 어떻게 사용해야 하는지 아는 것이 중요합니다.
- 효과적인 상호작용: 입력을 구성하고 출력을 개선하기 위한 실용적인 기술을 개발하는 것. 여기에는 명확한 지침을 제공하고 응답의 관련성, 정확성, 적합성을 확인하는 것이 포함됩니다.
- 비판적 평가: AI 생성 콘텐츠의 신뢰성과 신뢰도를 평가하는 것. 동시에 인간의 감독을 유지하고, 결과물을 형성하며 환각 위험을 초래하는 창의성과 구체성 사이의 절충점을 이해하는 것.
- 책임감 있는 사용: AI 사용에 윤리적, 법적, 정책적 인식을 가져오는 것. 여기에는 콘텐츠가 AI에 의해 생성되었는지 식별하고, 개인정보를 보호하며, 사용을 조직의 가치와 일치시키는 것이 포함됩니다.
- 적응성: 변화에 열려 있는 자세를 유지하는 것. 생성형 AI 도구가 발전함에 따라, 개인적으로나 기관적으로 실험하고, 배우고, 적응하는 우리의 능력도 발전해야 합니다.
궁극적인 목표는 인간의 전문성을 대체하는 것이 아니라, 그것을 향상시키는 것입니다. 생성형 AI는 인간의 창의성, 경험, 윤리적 추론에 의해 인도될 때 가장 잘 작동합니다. 이러한 도구는 보조할 수는 있지만, 결정해서는 안 됩니다. 연구자들은 여전히 의제를 설정하고, 질문을 정의하며, 최종 판단을 내려야 합니다.
AI가 연구 관행에 더욱 깊숙이 자리 잡게 되면서, 비판적 사고, 협업, 적응성과 같은 소프트 스킬이 기술적 숙련도만큼이나 중요해질 것입니다. 따라서 AI 리터러시를 구축하는 것은 CGIAR과 그 파트너들이 공정하고, 정보에 입각하며, 효과적인 연구를 지원하기 위해 신기술과 어떻게 상호 작용할 것인지에 대한 투자입니다.

AI 리터러시를 향하여
IFPRI는 조직의 AI 리터러시를 구축하고, 프로젝트 수행에서 AI의 역할을 평가하기 위한 직원들의 역량과 능력을 강화하기 위해 ‘식량 시스템 연구를 위한 AI’ 를 훈련 프로그램으로 시작합니다. 이는 요구 평가, 목표화된 전문성 개발, 그리고 AI 도입을 책임감 있고 효과적인 구현을 위한 기관의 가치 및 규범과 일치시키기 위한 참여적 소통을 포함하는 반복적인 과정이 될 것입니다.
우리는 다른 CGIAR 센터와 파트너들이 이 노력에 협력할 것을 권장합니다. 우리의 접근 방식에 참여하거나 배우는 데 관심이 있는 분들은 프로젝트 참여자에게 연락해 주시기 바랍니다.
AI 통합 과정을 형성하는 데 적극적인 역할을 함으로써, 우리는 실용적이고 미래지향적인 연구 커뮤니티와 효과적인 기관 정책을 구축하여, AI를 책임감 있게 사용할 뿐만 아니라, 지속 가능한 식량, 토지, 수자원 시스템을 발전시키는 데 있어 AI의 역할을 적극적으로 만들어 나갈 수 있도록 하는 것을 목표로 합니다.
*저자인 엘리엇 존스-가르시아는 IFPRI 자연자원 및 회복력 부서의 선임 연구 애널리스트입니다. 본 포스트의 의견은 저자의 것입니다.
*ChatGPT가 이 블로그 게시물의 기획, 초안 작성, 수정 과정에서 반복적으로 사용되었습니다. 저자가 내용을 제공했으며, 게시를 위해 텍스트를 신중하게 검토하고 편집했습니다.
*호미농부는 본 게시물을 단순 한글 번역만 진행하였습니다. 본 포스트의 원문은 (여기 링크)에서 확인하실 수 있습니다.

![[Green&Grey] 서양민들레 [Green&Grey] 서양민들레](https://smartnongup.kr/wp-content/uploads/2025/08/20200418_mindulre-web.jpg)
![[교육] “미래 농업의 주인공을 찾습니다” 제16기 경기농업대학 교육생 모집 시작! [교육] “미래 농업의 주인공을 찾습니다” 제16기 경기농업대학 교육생 모집 시작!](https://smartnongup.kr/wp-content/uploads/2025/12/nongup-gg-edu-house-900web.png)
![[카드뉴스] 농업전망 2026 세부 프로그램 및 무료 등록 안내 [카드뉴스] 농업전망 2026 세부 프로그램 및 무료 등록 안내](https://smartnongup.kr/wp-content/uploads/2026/01/card0.png)


![[IFPRI 기획] 정성적 연구에서의 AI: 대규모 언어 모델(LLM)을 활용한 모국어 설문 응답 코딩 [IFPRI 기획] 정성적 연구에서의 AI: 대규모 언어 모델(LLM)을 활용한 모국어 설문 응답 코딩](https://smartnongup.kr/wp-content/uploads/2025/12/gemini-LLM-AI-agritech-2025-1024.jpg)