Вести
29. 12. 2025.
Изазови примене вештачке интелигенције у новинарству
Да ли бисте веровали медијском садржају за који знате да је креиран од стране вештачке интелигенције? Резултати истраживања „Вештачка интелигенција у медијима у Србији 2025.” које је спровео Центар за професионализацију медија и медијску писменост (ЦЕПРОМ), показују да би 225 од 250 испитаника, односно 90% новинара и уредника, тај садржај третирало као мање поуздан.
Разлог за то можемо пронаћи у чињеници да упркос томе што нуди већу брзину, ефикасност и аутоматизацију обављања рутинских новинарских послова, вештачка интелигенција (ВИ) доноси и ризик од халуцинација, тачније убедљивих, али потпуно измишљених информација. Технологија, колико год напредна била, нема свест о истини и значењу неког садржаја, већ га генерише на основу алгоритма.
Халуцинације као кључни разлог неповерења
Једна од највећих опасности при употреби ВИ у новинарству, према мишљењу 68,8% испитаника ЦЕПРОМ-овог истраживања, јесте управо непоуздан медијски садржај који производи ВИ (нетачан, манипулативан…). Грешке које прави ВИ често су уверљиве, уклопљене у контекст и стилски исправне, због чега могу лако проћи неопажено. То у пракси значи да новинари могу жртвовати истинитост информација зарад брзине коју од њих захтева редакција, ослањајући се на ВИ алате и не остављајући довољно времена за проверу добијених података.
Истраживачки новинар БИРН-а и стручњак за примену ВИ и коришћење јавно доступних извора (ОСИНТ), Милош Катић, упозорава да се са овим проблемом новинари најчешће сусрећу при раду са текстуалним садржајима и моделима за анализу података. „Дешава се да измисли везе између различитих ентитета, правних лица… Имао сам случај када сам тестирао алат да је потпуно измислио трансакцију, односно пошиљку робе”, објашњава Катић упозоравајући да исписи могу деловати потпуно уверљиво јер користе елементе које смо претходно већ дали ВИ, али да се испостави да су измишљени.
Осим са текстуалним садржајима, Катић указује и на грешке које могу настати приликом употребе алата за анализу фотографија. „Скренуо бих пажњу на ситуацију која ми се догодила, јер су то околности о којима и не размишљате док не дођете у ту ситуацију. Наиме, користио сам ПимЕyес алат за препознавање лица, добио исписе на Гуглу и на основу њих мислио да сам повезао особу са фотографије и добијене податке о њој. Међутим, у тим ситуацијама морате узети у обзир чињеницу да та особа можда има близанца, што може да буде проблематично јер детаљ који представља разлику између близанаца не мора да буде значајан за модел ВИ који користимо. У конкретном случају, разлика између близанаца је био само један младеж. Модел није могао да га детектује и усмеравао нас је на особу која је заправо била близанац, а не особа која је предмет нашег истраживања”, објашњава наш саговорник.
Због тога, како истиче, свака информација добијена уз помоћ ВИ мора бити темељно проверена, без обзира на то колико у датом тренутку деловала убедљиво. „Код истраживачких редакција је ситуација таква да сваки текст, пре објављивања, пролази ‘фацт цхецк’ и гледа га неколико очију. Уколико и након тога уредник има недоумице, консултује се са другим уредницима или колегама из редакције и тек се онда доноси одлука и иде у јавност. У мањим редакцијама не постоји могућност за толико детаљну проверу, али треба уложити максималне напоре да будете 100% сигурни у информацију пре него што је објавите”, закључује Катић.
Транспарентност као предуслов поверења публике
Због грешака које прате употребу ВИ у новинарству, било да су последица журбе, недовољне провере или свесних злоупотреба, садржај који она генерише се доминантно сматра непоузданим. У таквом окружењу, није изненађујуће што се део новинара и редакција одлучује да избегне отворено обележавање употребе ВИ, из страха да би тиме нарушили кредбилитет и однос са публиком. Резултати ЦЕПРОМ-овог истраживања показују да тек 9,6% испитаника увек транспарентно наводи да је коришћен ВИ алат, а 22,4% њих то никада није експлицитно наводило.
Међутим, Тања Максић, програмска координаторка БИРН-а и ауторка анализе „Дигитална трансформација и вештачка интелигенција: Етичка и одговорна употреба у медијима”, сматра да је управо транспарентност кључан механизам за очување, па чак и јачање поверења публике. Како истиче, ВИ алати могу да произведу изузетно реалистичан садржај, до те мере да публика често не може да зна да ли је креиран од стране људи или алата. Управо зато је важно да медији буду отворени према публици и јасно комуницирају на који начин и у које сврхе користе ове технологије. „Моја препорука редакцијама јесте да развију интерне смернице или протоколе о употреби ВИ и да их учине јавно доступним, односно да их објаве на својим сајтовима. Просто да кажу публици за које послове користе ВИ, у ком обиму, да ли је користе за неке захтевније послове, да ли су цео текст засновали на нечему што им је дала ВИ и то да објаве транспарентно”, каже Максић.
Она објашњава да су ове смернице мера медијске писмености публике и грађана генерално. „Ја мислим да ако будемо довољно отворени према својој публици и кажемо када користимо ВИ, али се и заиста држимо тога и користимо је уз људски надзор и уредничку контролу, то неће нарушити однос поверења са публиком који је за медије и један од најбитнијих. Тај однос је нешто што заиста морамо да негујемо у овом окружењу”, закључује наша саговорница.
Одговорност новинара и уредника у ВИ окружењу
Измене Кодекса новинара и новинарки Србије по први пут су увеле смернице које се директно односе на употребу ВИ у редакцијама. Осим смернице која се односи на претходно поменуту транспарентност, односно означавање садржаја у чијем су креирању коришћени ВИ алати, наводи се и да садржај у чијем креирању је коришћена ова технологија „без обзира на то у којој фази прикупљања, обраде или дистрибуције, мора бити под уредничком контролом”.
Тања Максић новинарске послове у којима се користе ВИ алати дели на два типа. Први су рутински послови попут превођења, транскрипције, сумаризације за које мисли да је потпуно у реду користи ВИ алате који новинарима помажу да буду бржи и ефикаснији. „Други тип послова су они комплекснији и захтевнији, попут прикупљања, обраде и анализе податак који захтевају посебно висок ниво уредничке и новинарске пажње. У дубинском, истраживачком раду ВИ може бити користан алат само ако је добро надзирана од стране уредника и новинара”, каже она и закључује да ВИ алати у погрешним рукама могу да произведу велику штету.
Програмска директорка БИРН-а подсећа да без обзира на технолошке промене постоје фундаментални принципи на којима новинарство почива. „Истинито, правовремено, независно и одговорно извештавање су основни принципи новинарске професије и они не смеју бити занемарени, без обзира на окружење у којем новинари раде. Осим тога, имамо и нове принципе који су дошли са дигиталним окружењем, а то су верификација, провера извора и свега оног што долази као производ рада ВИ. Новинари и уредници морају то двоструко, троструко да провере и да буду потпуно сигурни у оно што објављују”, закључује наша саговорница.
Како се заштити од грешака приликом употребе ВИ алата
Данијела Врањеш, консултанткиња за ВИ и асистенткиња на Филолошком факултету у Београду, истиче да заштита од грешака почиње од начина на који формулишемо наше захтеве различитим алатима и предлаже неколико кључних корака како бисмо смањили могућност истих.Доделите улогу цхатбот-у која ће одговарати ономе чиме се бавите.
Дајте му јасан контекст, односно ‘нахраните’ ВИ информацијама о некој личности или догађају које су својствене за садржаја који креирате, а које она сама по себи не може да поседује.Објасните ВИ ко је публика – да ли је то генерална популација, тинејџери и слично, јер може значајно утицати на стил и исход који добијете.Дајте ограничења алату да, рецимо, не користи жаргонски језик или да не користи стручне термине које ваша публика неће разумети и слично.Дефинишите формат садржаја који вам је потребан.
Укључите реченицу – „Уколико су ти потребне додатне информације да извршиш задатак, постави ми додатна питања”, како бисте осигурали да резултат које добијете буде што бољи.Укључите опцију „web search” (претрага интернет) јер без ње ВИ алати попут ChatGPT-а користе само садржаје које имају у бази података на којој су тренирани, односно не користе нове, актуелне изворе.
Уколико га без претраге интернета питате о неком догађају који се догодио јуче, модел неће имати те информације. Али пошто је направљен тако да вам подилази и практично испуњава све ваше жеље, он ће измислити садржај и добићете нешто што је врло уверљиво, али не одговара чињеницама.Проверите линкове ка сајтовима на којима је алат пронашао актуелне податке након што сте укључили претходно поменуту опцију.

Коментари (0)
Остави коментарНема коментара.