Marketing X Business

Kako trgovci mogu ublažiti pristrasnost u generativnim modelima umjetne inteligencije

N. D.

(Izvor: LinkedIn)

Ljudi imaju predrasude i budući da su generativni modeli umjetne inteligencije (genAI) obučeni na podacima koje su kreirali ljudi, vjerovatno će biti pristrasni kao i taj skup podataka.

Kako trgovci mogu ublažiti rizike? Tehnološki provajderi kao što su Amazon, Google, Meta i Microsoft već dugo pokušavaju da odgovore na zabrinutost u vezi sa efektima pristrasnosti u skupovima podataka koji se koriste za obuku AI sistema. Alati kao što su Googleovi pokazatelji pravednosti i Amazonov Sagemaker Clarify pomažu naučnicima da otkriju i ublaže štetnu pristrasnost u skupovima podataka i modelima koje grade pomoću mašinskog učenja. Ali iznenadno, brzo usvajanje najnovijeg talasa AI alata koji koriste masivne modele velikih jezika (LLM) za generisanje teksta i umjetničkih djela za trgovce predstavlja novu klasu izazova.

Generativni AI je nevjerovatan napredak, ali nije ljudski i neće raditi baš ono što ljudi misle da bi trebao. Njegovi modeli imaju pristrasnost kao što ljudi imaju pristrasnost. Brza komercijalizacija genAI modela i aplikacija pomaknula je izvore pristranosti izvan opsega alata i tehnika koje su trenutno dostupne odjelima za nauku o podacima. Napori na ublažavanju moraju ići dalje od same primjene tehnologije i uključiti nove operativne modele, okvire i angažman zaposlenika.

Trgovci su često najvidljiviji usvojitelji genAI

Kao vodeći i najvidljiviji usvojitelji genAI u većini organizacija — i ljudi najodgovorniji za percepciju brenda — trgovci se nalaze na prvim linijama ublažavanja AI pristrasnosti. Ovi novi izazovi često zahtijevaju osjetljiv ljudski nadzor kako bi se otkrile i riješile pristrasnosti. Organizacije moraju razviti najbolju praksu u svim funkcijama koje se suočavaju s klijentima, timovima za podatke i analitiku, kao i pravnim propisima kako bi izbjegle štetu svojim brendovima i organizacijama.

Najosnovnija funkcija marketinga je korištenje alata za pronalaženje i isporuku poruka ljudima koji će najvjerovatnije imati koristi od poslovnih proizvoda i usluga. Naravno da je jako bitno kako segmentirati i ciljati kupce i odluke o lojalnosti kupaca. Budući da se tehnologija oslanja na historijske podatke i ljudske prosudbe, rizikuje da cementira i pojača pristrasnosti skrivene unutar organizacije, kao i u komercijalnim modelima nad kojima trgovci nemaju kontrolu.

(Izvor: Adobe Stock)

Alokativna i reprezentativna šteta

Kada algoritmi nenamjerno ne favoriziraju segmente kupaca s nesrazmjernim spolnim, etničkim ili rasnim karakteristikama zbog istorijskih socioekonomskih faktora koji inhibiraju učešće, rezultat se često opisuje kao „šteta alokacije“. Dok su odluke s velikim utjecajem, poput odobrenja kredita, dobile najveću pažnju, svakodnevne marketinške odluke poput toga ko prima specijalnu ponudu, pozivnicu ili izlaganje oglasa predstavljaju sve prisutniji izvor štete. Ublažavanje štete od alokacije bio je cilj mnogih alata i praksi nauke o podacima.

GenAI je, međutim, izrazio zabrinutost zbog drugačije vrste štete. “Šteta predstavljanja” odnosi se na stereotipne asocijacije koje se pojavljuju u preporukama, rezultatima pretraživanja, slikama, govoru i tekstu. Tekst i slike koje proizvodi genAI mogu uključivati ​​prikaze ili opise koji jačaju stereotipne asocijacije polova ili etničkih grupa sa određenim poslovima, aktivnostima ili karakteristikama.

Neki istraživači su skovali frazu “stohastički papagaji” kako bi izrazili ideju da bi LLM mogli bezumno replicirati i pojačati društvene predrasude prisutne u njihovim podacima o obuci, slično kao što papagaji bezumno oponašaju riječi i fraze kojima su bili izloženi. Naravno, poznato je da ljudi odražavaju nesvjesne predrasude u sadržaju koji proizvode. Nije teško doći do primjera gdje su marketinške greške proizvele štetu predstavljanju koja je odmah izazvala negativnu reakciju. Srećom, takve flagrantne nezgode su relativno rijetke i većina agencija i marketinških timova ima prosudbu i operativnu zrelost da ih otkrije prije nego što prouzrokuju štetu.

GenAI, međutim, podiže ulog na dva načina. Prvo, upotreba genAI u proizvodnji sadržaja za personalizirana iskustva umnožava mogućnosti da ova vrsta gafa izbjegne pregled i otkrivanje. To je zbog porasta stvaranja novog sadržaja i različitih kombinacija poruka i slika koje se mogu predstaviti potrošaču. Sprečavanje pristranosti predstavljanja u personaliziranom sadržaju i dijalozima za chatbot zahtijeva povećanje aktivnog nadzora i vještina testiranja kako bi se izbjegle neočekivane situacije koje proizlaze iz nepredvidivog ponašanja AI.

(Izvor: Micro Pro)

Drugo, dok flagrantne greške privlače najveću pažnju, suptilne reprezentacijske štete su češće i teže ih je eliminirati. Uzeti pojedinačno, mogu izgledati bezopasno, ali proizvode kumulativni efekat negativnih asocijacija i slijepih mrlja. Na primjer, ako pomoćnik za pisanje AI-a zaposlen u nekom brendu uporno se odnosi na kupce kao na žene na osnovu uzoraka kopija koje su mu dali, njegov rezultat može ojačati stereotip „domaćice“ i izgraditi pristranu asocijaciju na brend tokom vremena.

Rješavanje štete u genAI

Suptilna reprezentativna pristrasnost zahtijeva dublje nivoe vještina, kontekstualnog znanja i raznolikosti za prepoznavanje i uklanjanje. Prvi korak je prepoznavanje potrebe da se nadzor uključi u redovno poslovanje organizacije. Razmislite o poduzimanju ovih koraka:

– Pozabavite se rizikom. Pristrasnost inficira genAI kroz podatke o obuci, ljudsko pojačanje i svakodnevnu upotrebu. Internom i agencijskom usvajanju genAI za rad sa sadržajem treba prethoditi ciljana edukacija, pojašnjenje odgovornosti i plan za redovne revizije i testove pristrasnosti.

– Formalizirajte principe. Uskladiti sve zainteresirane strane na principima raznolikosti i inkluzije koji se odnose na specifične opasnosti od pristrasnosti u genAI. Počnite sa navedenim principima i politikama organizacije i uključite ih u revizije pristrasnosti jer se odnose na ove principe. Postavite ograničenja pravičnosti tokom obuke i uključite raznovrstan panel recenzenata kako biste uhvatili pristrasan sadržaj. Jasne smjernice i stalna odgovornost su ključni za osiguravanje etičkog sadržaja generiranog umjetnom inteligencijom.

– Uzmite u obzir kontekst. Kulturna relevantnost i remetilački događaji mijenjaju percepciju na načine koje genAI nije obučen da prepozna. Asimilacija uticajnih događaja od strane LLM-a može pratiti događaje i promjenu društvene percepcije. Marketinški lideri mogu savjetovati komunikacije i ljudske resurse o tome kako poboljšati programe obuke za raznolikost, jednakost i inkluziju kako bi uključili teme vezane za umjetnu inteligenciju kako bi pripremili timove da postavljaju prava pitanja o postojećim praksama i planovima usvajanja. Oni također mogu osigurati da podaci testa uključuju primjere koji bi potencijalno mogli izazvati pristrasnost.

– Energično sarađujte. Osigurajte da marketinško osoblje blisko sarađuje sa stručnjacima za podatke. Odredite različite i reprezentativne skupove podataka koristeći i alate za nauku o podacima i povratne informacije od ljudi u svim fazama razvoja i implementacije modela, posebno kada fino podešavanje temeljnih modela postaje sve uobičajenije. Kako trgovci razmatraju izmjene osoblja i obuke koje pokreću umjetna inteligencija, dajte prioritet povećanju pregleda i aktivnosti povratnih informacija potrebnih za ublažavanje pristrasnosti.

Zaključak: Ako marketinški lideri slijede ove korake kada se bave internim genAI propisima, oni će štititi svoj brend na glavni način, što može donijeti velike profite. Iako čak i glavni igrači u svemiru nastoje da se pozabave pristrasnošću unutar genAI-a, ne uzimaju svi u obzir sve ove korake, što može dovesti do velikih slijepih tačaka s njihovim projektima koje vodi genAI.