안녕하세요, 여러분! 서니입니다. 오늘은 최근 뉴스에서 화제가 된 '저널리스트들이 회사의 관리 없이 생성 AI 도구를 사용하고 있다'는 이야기를 들고 왔어요. 현대의 기술 변화가 어떻게 저널리즘에 영향을 미치고 있는지 함께 알아볼까요?
최근 Trint라는 AI 기반 전사 소프트웨어 플랫폼이 발표한 새 보고서에 따르면, 전 세계 29개 뉴스룸의 저널리스트들을 대상으로 한 조사에서 약 42.3%가 회사에서 승인받지 않은 생성 AI 도구를 사용하고 있다고 합니다. 이것이 무슨 의미일까요? 바로 뉴스룸에서 AI가 효율성을 개선하기 위한 도구로 자리 잡아가고 있지만, 모든 직원들이 회사의 통제를 받는 것은 아니라는 점이에요.
뉴스룸의 AI 사용 현황
Trint의 보고서는 저널리스트들이 생성 AI를 활용하여 전사 및 번역, 정보 수집, 대량 데이터 분석 등의 작업에서 효율성을 높이기 위해 노력하고 있음을 보여줍니다. 상상해보세요, 방대한 양의 데이터를 손쉽게 정리하고 필요한 정보를 빠르게 추출할 수 있다면 얼마나 편리할까요? 이렇게 AI는 기자들의 업무를 간편하게 만들어주고 있어요.
하지만 여기서 중요한 점은 '그림자 AI(shadow AI)', 즉 회사의 공식 승인을 받지 않은 AI 도구의 사용이에요. 보고서에 따르면, 이는 뉴스룸에서 발생하는 문제 중 하나로 언급되었지만, 실제로 더 큰 문제로 지적된 것은 AI의 부정확한 출력(75%), 저널리스트의 명성 위험(55%), 데이터 프라이버시 우려(45%)였습니다.
직원들이 이러한 AI 도구들을 사용하는 이유 중 하나는 바로 효율성 향상입니다. Trint의 보고서에 따르면 69%의 응답자들이 AI 도구의 도입 이유로 효율성을 꼽았습니다.
AI 사용의 윤리적 고려
Business Insider의 한 익명의 직원은 "우리 뉴스룸의 다수 직원들은 데이터를 재구성하거나 참조 도구로 AI를 사용하고 있다"고 전했습니다. 하지만, 회사의 지침은 구체적인 사용 방법보다는 원칙 중심으로 되어 있어, '기밀 정보를 AI 시스템에 입력하지 말라'는 경고를 빼놓지 않는다고 해요.
이러한 '비승인' AI 사용은 때로는 그만한 가치가 있다는 의견도 있지만, 회사가 법적 및 데이터 보안 요건을 따라가기 어려워할 수 있어요. 특히 비승인 도구에 민감한 데이터를 입력하게 되면, 보안 문제로 이어질 수 있죠.
어떻게 대응할 수 있을까요?
여기서 중요한 것은 교육과 정책입니다. Trint의 보고서에 따르면, 조직의 64%는 직원 교육을 강화할 계획이며, 57%는 AI 사용에 대한 새로운 정책을 도입할 예정이라고 해요. 예를 들어, 뉴욕타임스는 최근 특정 AI 도구 사용을 승인하면서도, 승인되지 않은 AI 도구의 사용 시 정보 보호 문제를 경고했다고 합니다.
AI가 저널리즘 세계에 주는 영향은 크지만, 이를 어떻게 관리하고 활용할 것인가는 또 다른 이야기입니다. 기술을 잘 활용하여 혁신을 이루되, 그 과정에서 저널리즘의 본질과 윤리를 놓치지 않는 것이 중요하겠습니다.
이 글이 여러분에게 새로운 통찰을 줄 수 있었길 바라며, 다음에 더 흥미로운 주제로 돌아올게요! 감사합니다!


