Annonce

Log ud Log ind
Log ud Log ind
Ledelse

Kommentar: Chatbots og sociale mediers censur af kontroversielle tekster vil undergrave ytringsfriheden

Morten W. Langer

onsdag 24. april 2024 kl. 14:16

via TheConversation.com (frit oversat)

Google skabte for nylig overskrifter globalt, fordi dets chatbot Gemini genererede billeder af farvede mennesker i stedet for hvide mennesker  i historiske omgivelser, der indeholdt hvide mennesker . Adobe Fireflys billedoprettelsesværktøj  så lignende problemer . Dette fik nogle kommentatorer til at beklage sig over, at AI var  gået “woke”. Andre foreslog, at disse problemer skyldtes  fejlagtige bestræbelser på at bekæmpe AI-bias  og bedre tjene et  globalt publikum .

Diskussionerne om AI’s politiske holdninger og bestræbelser på at bekæmpe bias er vigtige. Alligevel ignorerer samtalen om AI et andet afgørende spørgsmål:  Hvad er AI-industriens tilgang til ytringsfrihed, og omfavner den internationale standarder for ytringsfrihed?

Vi er politiske forskere, der  studerer ytringsfrihed , såvel som administrerende direktør og en forskningsstipendiat ved  The Future of Free Speech , en uafhængig, upartisk tænketank baseret på Vanderbilt University. I en nylig rapport fandt vi ud af, at generativ AI har  vigtige mangler  med hensyn til ytringsfrihed og adgang til information.

Generativ AI er en type  AI, der skaber indhold , som tekst eller billeder, baseret på de data, den er blevet trænet med. Især fandt vi ud af, at brugspolitikkerne for store chatbots ikke lever op til FN’s standarder. I praksis betyder det, at AI-chatbots ofte censurerer output, når de beskæftiger sig med problemer, som virksomhederne anser for kontroversielle.  Uden en solid kultur for ytringsfrihed vil de virksomheder, der producerer generative AI-værktøjer, sandsynligvis fortsat møde modreaktioner i disse stadig mere polariserede tider.

Vage og brede brugspolitikker

Vores rapport analyserede brugspolitikkerne for seks store AI-chatbots, herunder Googles Gemini og OpenAIs ChatGPT. Virksomheder udsteder politikker for at sætte regler for, hvordan folk kan bruge deres modeller. Med international menneskerettighedslovgivning som benchmark fandt vi ud af, at virksomheders politikker for misinformation og hadefulde ytringer er for vage og ekspansive. Det er værd at bemærke, at international menneskerettighedslovgivning er mindre beskyttende for ytringsfrihed end US First Amendment.

Vores analyse viste, at virksomheders politikker for hadefulde ytringer indeholder  ekstremt brede  forbud. For eksempel forbyder Google generering af “indhold, der fremmer eller opmuntrer til had.” Selvom hadefulde ytringer er afskyelige og kan forårsage skade, kan politikker, der er lige så bredt og vagt defineret som Googles, give bagslag.

For at vise, hvordan vage og brede brugspolitikker kan påvirke brugerne, testede vi en række anvisninger om kontroversielle emner. Vi stillede chatbots spørgsmål som, om transkønnede kvinder burde eller ikke skulle have lov til at deltage i kvinders sportsturneringer eller om den europæiske kolonialismes rolle i den nuværende klima- og ulighedskriser. Vi bad ikke chatbots om at producere hadefulde ytringer, der nedgør nogen side eller gruppe. I lighed med  hvad nogle brugere  har rapporteret , nægtede chatbots at generere indhold til 40 % af de 140 prompter, vi brugte. For eksempel  nægtede alle chatbots at generere indlæg, der modsatte sig deltagelse af transkønnede kvinder i kvindeturneringer. De fleste af dem lavede dog indlæg, der understøttede deres deltagelse.

Ytringsfrihed er en grundlæggende rettighed i USA, men hvad det betyder, og hvor langt det går, diskuteres stadig bredt.

Vagt formulerede politikker er stærkt afhængige af moderatorers subjektive meninger om, hvad hadefuld tale er. Brugere kan også opfatte, at reglerne anvendes uretfærdigt og fortolke dem som for strenge eller for lempelige.

For eksempel  forbyder chatbot Pi  “indhold, der kan sprede misinformation.” Internationale menneskerettighedsstandarder for ytringsfrihed beskytter dog generelt misinformation, medmindre der findes en stærk begrundelse for grænser, såsom udenlandsk indblanding i valg.  Ellers garanterer menneskerettighedsstandarder ” friheden til at søge, modtage og videregive  information og ideer af enhver art, uanset grænser … gennem ethvert … medie efter … valg”,  ifølge en central FN-konvention.

At definere, hvad der er korrekt information, har også politiske konsekvenser. Regeringer i flere lande brugte regler vedtaget i forbindelse med COVID-19-pandemien til at  undertrykke kritik  af regeringen. For nylig  konfronterede Indien Google  efter Gemini bemærkede, at nogle eksperter anser den indiske premierminister, Narendra Modis, politik for at være fascistisk.

Ytringsfri kultur

Der er grunde til, at AI-udbydere måske ønsker at vedtage restriktive brugspolitikker.  De ønsker måske at beskytte deres omdømme og ikke blive forbundet med kontroversielt indhold.  Hvis de tjener et globalt publikum, vil de måske undgå indhold, der er stødende i enhver region.

Generelt har AI-udbydere ret til at vedtage restriktive politikker. De er ikke bundet af internationale menneskerettigheder. Alligevel gør deres  markedsstyrke  dem anderledes end andre virksomheder. Brugere, der ønsker at generere AI-indhold, vil højst sandsynligt ende med at bruge en af ​​de chatbots, vi analyserede, især ChatGPT eller Gemini.

Disse virksomheders politikker har en overordnet effekt på retten til adgang til information. Denne effekt vil sandsynligvis øges med generativ AI’s integration i  søgningtekstbehandleree-mail  og andre applikationer.

Det betyder, at samfundet har en interesse i at sikre, at sådanne politikker beskytter ytringsfriheden tilstrækkeligt. Faktisk  kræver Digital Services Act , Europas onlinesikkerhedsregelbog, at såkaldte “meget store onlineplatforme” vurderer og afbøder “systemiske risici.” Disse risici omfatter negative effekter på ytrings- og informationsfriheden.

Jacob Mchangama diskuterer ytringsfrihed på nettet i forbindelse med EU’s 2022 Digital Services Act.

Denne forpligtelse,   der hidtil har været ufuldkomment anvendt af Europa-Kommissionen, illustrerer, at med stor magt følger et stort ansvar. Det er  uklart, hvordan denne lov vil gælde  for generativ kunstig intelligens, men Europa-Kommissionen har  allerede truffet sine første handlinger .

Selv hvor en lignende juridisk forpligtelse ikke gælder for AI-udbydere, mener vi, at virksomhedernes indflydelse bør kræve, at de anlægger en ytringsfrihed.  Internationale menneskerettigheder er en nyttig ledestjerne til, hvordan man ansvarligt kan balancere de forskellige interesser, der er på spil. Mindst to af de virksomheder, vi fokuserede på –  Google  og  Anthropic  – har anerkendt det.

Klare afslag

Det er også vigtigt at huske, at brugere har en betydelig grad af autonomi over det indhold, de ser i generativ AI. Ligesom søgemaskiner afhænger det output, brugerne modtager, meget af deres prompter.  Derfor vil brugernes eksponering for hadefulde ytringer og misinformation fra generativ AI typisk være begrænset, medmindre de specifikt søger det.

Dette er i modsætning til sociale medier, hvor folk har meget mindre kontrol over deres egne feeds.  Strengere kontrol, herunder på AI-genereret indhold, kan være berettiget på niveau med sociale medier, da de distribuerer indhold offentligt. For AI-udbydere mener vi, at brugspolitikker bør være mindre restriktive med hensyn til, hvilken information brugere kan generere end dem på sociale medieplatforme.

AI-virksomheder har andre måder at håndtere hadefulde ytringer og misinformation på. For eksempel kan de give kontekst eller modsvarende fakta i det indhold, de genererer. De kan også give mulighed for større brugertilpasning.  Vi mener, at chatbots bør undgå blot at nægte at generere noget indhold helt.  Dette er, medmindre der er solide offentlige interesser, såsom at forhindre materiale med seksuelt misbrug af børn, noget love forbyder.

Tilmeld dig vores gratis nyhedsbrev
ØU Bestyrelsesguiden

Få de vigtigste nyheder om praktisk bestyrelsesarbejde, ledelse og strategi i SMV.
Udkommer hver onsdag.

Jeg giver samtykke til, at I sender mig mails med de seneste historier fra Økonomisk Ugebrev. Lejlighedsvis må I gerne sende mig gode tilbud og information om events. Samtidig accepterer jeg ØU’s Privatlivspolitik.

Du kan til enhver tid afmelde dig med et enkelt klik.

[postviewcount]

Jobannoncer

Medarbejder til tilsynet med markedet for kryptoaktiver og betalingstjenester
Region H
CEO for Rejsekort & Rejseplan A/S
Region H
Spændende og alsidig stilling som økonomi- og administrationschef
Region Hovedstaden
Finance/Business Controller til Anzet A/S
Region Sjælland
Dansk Sygeplejeråd søger digitalt indstillet økonomimedarbejder med erfaring i regnskabsprocessen fra A-Z
Region Hovedstaden
Økonom til tilsynet med realkreditinstitutter
Region H
Økonom til analyser af arbejdsmarkedet
Region H
Financial Controller til Process Integration ApS
Region Midt
Liftra ApS i Aalborg søger en Finance Controller med ”speciale” i Transfer Pricing
Region Nordjylland
Forbrugerrådet Tænk søger en ny direktør
Region Hovedstaden
INSTITUTLEDER PÅ AAU BUSINESS SCHOOL – Aalborg Universitet
Region Nordjylland
Skatteministeriet søger kontorchef til Organisering og Governance
Region H
Udløber snart
SPARTA SØGER EN ERFAREN KOMMERCIEL CHE
Region H

Mere fra ØU Ledelse

Log ind

Har du ikke allerede en bruger? Opret dig her.

FÅ VORES STORE NYTÅRSUDGAVE AF FORMUE

Her er de 10 bedste aktier i 2022

Tilbuddet udløber om:
dage
timer
min.
sek.

Analyse af og prognoser for Fixed Income (statsrenter og realkreditrenter)

Direkte adgang til opdaterede analyser fra toneangivende finanshuse:

Goldman Sachs

Fidelity

Danske Bank

Morgan Stanley

ABN Amro

Jyske Bank

UBS

SEB

Natixis

Handelsbanken

Merril Lynch 

Direkte adgang til realkreditinstitutternes renteprognoser:

Nykredit

Realkredit Danmark

Nordea

Analyse og prognoser for kort rente, samt for centralbankernes politikker

Links:

RBC

Capital Economics

Yardeni – Central Bank Balance Sheet 

Investing.com: FED Watch Monitor Tool

Nordea

Scotiabank