Насловна  |  Актуелно  |  Вести  |  Вештачка интелигенција и друштвене мреже
Povećaj veličinu slova Vrati na prvobitnu veličinu slova Smanji veličinu slova štampaj štampaj
 

Pošalji prijatelju

Вести

27. 01. 2022.

Аутор: Филип Милошевић Извор: Цензоловка/ Медиацентар Сарајево

Вештачка интелигенција и друштвене мреже

У априлу 2016. године, на тада већ изузетно популарној мрежи Инстаграм, тихо је уведена промена у редоследу приказивања садржаја које корисници виде када отворе апликацију. До тог тренутка, слике су излазиле редоследом којим су и објављиване (хронолошки), а од тада, посао бирања и сервирања садржаја поверен је алгоритмима вештачке интелигенције.

Званична изјава компаније звучала је као реплика из научно-фантастичног филма: “Како бисмо унапредили ваше искуство, приказиваћемо вам објаве за које верујемо да ће вас највише занимати”. Многи корисници су се бунили – једни су бринули да ће пропустити нешто важно, други да ће њихове објаве бити скрајнуте, трећи да ће бити много манипулације. Једно је било заједничко – свима је осећај “контроле” угрозио неки алгоритам – црна кутија са низом правила у које нико сем творца апликације нема увид.

Системи за препоруке

Управо ти алгоритми су један од најбољих примера како друштвене мреже данас користе вештачку интелигенцију. У овом случају да би корисницима прво понудили “одговарајући” садржај док су на платформи, али и да би максимално увећали интеракцију (engagment) и мимо платформе – нотификацијама и мејловима који маме клик и одлазак у апликацију. Што више интеракције, то је више сервираних огласа (такође “одговарајућих”), а самим тим је и зарада за платформу већа. Зато није чудно што су алгоритми штеловани тако да максимизују време пред екраном, а средства (садржај) “бирају” математички, па чак иако лоше утичу на корисника.

Лажне вести се друштвеним мрежама шире шест пута брже него истините, а лако “запаљиви” материјали су свакако говор мржње и политички екстремизам, теорије завере и дезинформације.

Документи узбуњивачице из Фејсбука су показали да иако свесни огромних последица које овако аутоматизовани системи за препоруке садржаја имају по друштво и појединце, власници не предузимају много. Чињеница је да они немају пуно простора за алтруизам или етику, јер су у капитализму таквим компанијама раст и профит императив за опстанак на тржишту.

Алгоритамска модерација

Практично једини филтер за “шта год да држи пажњу, па макар и нездраво” опет је низ алгоритама који врше “аутоматизацију модерације”, тј. блокирање недозвољених саржаја на платформи што се, осим сексуалног садржаја, насиља, говора мржње и претњи, под притиском јавности све више односи баш на лажне вести и дезинформације.

Компанија Мета тврди да њихова “технологија открије 90% садржаја који обрише пре него што га било ко пријави”. У фусноти се додаје да се ово односи на већину категорија забрањеног садржаја. И управо је тако – вештачка интелигенција нема проблема са једноставним задацима као што су препознавање нагости или већ раније означеног и забрањеног садржаја, али велики је изазов научити машину да разуме комплексан језик или графике чије значење исувише зависи од контекста. Додатно, све је више фабрикованих вести креирано управо уз помоћ самих алгоритама, па се инжењери сусрећу са све већим изазовима попут тога како тренирати вештачку интелигенцију да се бори против саме себе.

Ипак, како један агент вештачке интелигенције – алгоритам – једначина, може да одреди шта је истина? Истина је филозофска категорија, а не техничка. Зато су последњих година тимови људских модератора и фектчекера ангажовани од стране онлајн платформи за ревизију одлука машина у случајевима када корисници уложе жалбу, или када алгоритми означе одређени случај као споран.

Термин “human-in-the-loop” или људска карика у ланцу односи се на потребу за људском интеракцијом са системима машинског учења да би се унапредио њихов учинак. Системи алгоритамске модерације не могу да функционишу без људи који их опслужују. Машина треба да се дизајнира, направи, одржава и непрестано храни новим подацима за учење, што захтева комплексан ланац људског рада.

Управо обавеза људске карике у овом ланцу процеса одлучивања доказује да та “вештачка интелигенција” и није баш потпуно “вештачка”.

Алгоритамско сортирање података

Пре саме модерације и филтрирања неподобног садржаја постоји барем још један битан корак који је поверен вештачкој интелигенцији – сортирање и анализа свих прикупљених података и похрањених садржаја. Платформе попут Фејсбука бележе сваку активност корисника и константно ажурирају њихове профиле информацијама о њиховом понашању, потребама, интеракцијом са другим корисницима, али и емоцијама (емотикони су од помоћи).

Истовремено се врши детаљна класификација свих садржаја који корисницима треба да се расподеле и сервирају кроз алгоритамске системе за препоруке. За ту сврху, користе се технологије попут “обраде природног језика” (natural language processing) и “компјутерског вида” (computer vision).

Прва се односи на учење и разумевање различитих језика и текстуалних садржаја, а друга на анализу визуелних информација, препознавање објеката, кретања итд. На жалост, током овог процеса се неминовно јавља пуно грешака као и нека врста “алгоритамске пристрасности”, јер креирање статистичких модела који се користе зависе од унетих података, тј. рефлектују реалан свет. Тако су твитови писани на афричко-америчком енглеском два пута чешће обележавани као увредљиви, а препоруке LinkedIn-а фаворизовале мушкарце у односу на жене.

Проширена стварност

Све ове технологије вештачку интелигенцију чине “мозгом” проширене стварности, где корисници кроз наочаре гледају реалан свет надограђен дигиталном сликом. Тако полицајци могу да добију сажети “профил” и друге информације о особи у коју гледају, а корисници Фејсбуковог метаверзума визуелну навигацију до кључа од аута који су негде ћушнули.

Међутим, ове “погодности” долазе са великом ценом у виду осетљивих података. Да би Фејсбук знао где су ти исти кључеви, он све снима, складишти и анализира. А да ли ће полицијски службеник или осигуравајуће друштво такође имати приступ тим подацима када буду доносили одлуке о нама? Случај је исти као и са нашим активностима када смо на интернету пред екраном – многе јавне, тајне службе и приватне компаније већ имају приступ нашим “досијеима” на основу тога шта претражујемо, кликћемо и са ким комуницирамо.

Алгоритамски замор

Однос корисника и ових система за препоруке временом ствара све више нелагоде, неповерења, а често и разочарења. Нелагода долази из самог сазнања колико је личних и осетљивих података потребно алгоритмима да би “упознали” кориснике, уз врло често одсуство свесног пристанка на њихово прикупљање. Нетранспарентност компанија када се ради о алгоритмима јача неповерење јер фаворизује кориснике који праве “популаран” и “виралан” садржај, док остале ређе приказује (shadowbanning). Коначно, корисници све чешће изражавају незадовољство садржајем који им се сервира, било да су у питању филмови на Netflix-у, клипови на Youtube-у, музика на Spotify-у или редослед “story-а” на Инстаграму.

Најава Инстаграма да ће вратити хронолошко приказивање објава као опцију током 2022. очигледно је била реакција на притисак јавности и корисника. Институције желе регулацију алгоритама, а корисници су уморни од њих. То је добар знак да као друштво постајемо свесни вештачке интелигенције, њеног утицаја и свеприсутности. Ако се овакав тренд настави, корисници ће можда задржати достојанство избора и ускоро поново улагати напоре да, бар донекле, сами уређују и бирају садржаје за себе.

Коментари (0)

Остави коментар

Нема коментара.

Остави коментар

Молимо Вас да прочитате следећа правила пре коментарисања:

Коментари који садрже увреде, непристојан говор, претње, расистичке или шовинистичке поруке неће бити објављени.

Није дозвољено лажно представљање, остављање лажних података у пољима за слање коментара. Молимо Вас да се у писању коментара придржавате правописних правила. Коментаре писане искључиво великим словима нећемо објављивати. Задржавамо право избора или скраћивања коментара који ће бити објављени. Мишљења садржана у коментарима не представљају ставове УНС-а.

Коментаре које се односе на уређивачку политику можете послати на адресу unsinfo@uns.org.rs

Саопштења Акције Конкурси