Frygten for, at generativ ai vil oversvømme samfundet med »skadeligt« indhold såsom desinformation, optager mange.
Men frygten for skadeligt indhold kan også tage en anden dystopisk drejning.
En, hvor de værn, der er rejst for at forhindre de mest udbredte GenAI-systemer i at gøre skade, forvandler dem til instrumenter, der skjuler information, gennemtvinger konformitet og automatisk indsætter gennemgribende, men uigennemsigtig, bias.
De fleste er enige om, at GenAI ikke bør give brugerne en manual til at udvikle kemiske eller biologiske våben. Ai-systemer bør heller ikke gøre det lettere at skabe børnepornografi eller seksuelt materiale uden samtykke, selv om det er falsk.
Men de mest udbredte GenAI-chatbots som OpenAIs, ChatGPT og Googles Gemini forhindrer meget bredere og vagere definitioner af »skade«, som efterlader brugerne i uvished om, hvor, hvordan og hvorfor de røde linjer er trukket.
De førende GenAI-udviklere kan ende med at svinge så langt i retning af skadeforebyggelse, at de ender med at underminere løftet og integriteten af deres revolutionerende produkter. Endnu værre er det, at algoritmerne allerede er modstridende, inkonsekvente og forhindrer brugernes mulighed for at få adgang til kvalitetsinformation.
Jeg bad eksempelvis Googles Gemini om at vise Muhammedtegningerne, hvilket den nægtede, eftersom »de blev anset for at være meget krænkende for mange muslimer« og »udløste en stor international kontrovers, der omfattede protester, vold og boykot«.