

Ідея використання машин для створення новин з’явилася ще на початку 2010-х років. Bloomberg першим автоматизував короткі фінансові звіти. Згодом Associated Press, The Washington Post і інші світові медіа впровадили власні системи. Сьогодні ж ChatGPT, Claude чи Gemini здатні написати статтю за лічені секунди.
До 30% контенту в деяких нішевих медіа вже створюється за допомогою ШІ.
ШІ — це незамінний помічник там, де потрібна обробка шаблонного контенту: спортивна статистика, результати виборів, погодні зведення. Він вміє аналізувати великі масиви даних і навіть пропонувати теми на основі трендів у соціальних мережах.
Однак, навіть найрозумніший алгоритм не має критичного мислення. ШІ може «впевнено» поширювати фейки, некоректно цитувати джерела, плутати факти. У 2023 році американське медіа CNET публікувало тексти, написані ШІ, які виявилися сповненими помилок і недостовірних даних.
Також постає питання: хто несе відповідальність за публікацію — редактор чи алгоритм?
Помилки та фейки: CNET публікував статті, створені ШІ, які містили неточності.
Заміна журналістів: Польська радіостанція OFF Radio Krakow звільнила журналістів, замінивши їх ШІ-аватарами, що викликало обурення.
Етичні дилеми: London Standard опублікував рецензію, написану ШІ в стилі покійного критика Браяна Сьюелла, що спричинило дискусії про моральність таких дій.
Вітчизняні редакції теж експериментують. Суспільне використовує ШІ для внутрішньої аналітики, а деякі регіональні медіа — для створення шаблонного контенту. Водночас багато журналістів з осторогою ставляться до таких змін, побоюючись девальвації професії.
На рівні регуляторів чітких норм поки що немає, хоча у Національній спілці журналістів України визнають, що «тема потребує дискусії та етичного регламенту».
Штучний інтелект — це інструмент. Його ефективність залежить від того, як ми його використовуємо. З належним контролем та етичними стандартами ШІ може стати потужним союзником журналістики.
Але без них — загрозою для правди та довіри.