Kunstig intelligens
Foto: Marie Hald
Efter beskrivelser af selvskade: SF vil have Tesfaye til at sikre mere test af AI-systemer til skoler
Hvordan sikrer vi mod nye tilfælde, hvor elever kan få voldsomme beskrivelser om selvskade og selvmord? Det skal undervisningsministeren svare på efter en sag om chatbotten SkoleGPT.
I sidste uge kunne dr.dk fortælle, at chatbotten SkoleGPT, der er
udviklet specifikt til undervisningsbrug i de danske skoler, gav detaljerede beskrivelser
af selvskade og selvmord, hvis man for eksempel spurgte den om hjælp til en
skoleopgave om netop de emner.
Udviklerne bag chatbotten - Future Classroom Lab og CFU ved
Københavns Professionshøjskole - forsikrede efterfølgende, at de havde justeret
chatbotten, så den ikke længere giver informationer om de pågældende emner.
I kølvandet på sagen vil SF nu have børne- og undervisningsminister
Mattias Tesfaye (S) til svare på, hvordan han vil sikre, at der ikke opstår lignende sager i fremtiden.
Konkret har partiet bedt ministeren svare på, hvilke
initiativer han vil ”iværksætte for at sikre, at kunstig intelligens-systemer i
folkeskolen og andre steder på velfærdsområdet er gennemtestet tilstrækkeligt”.
Partiets skoleordfører Sigurd Agersnap mener, at der er
behov for, at der skal være begrænsninger for, hvilke svar chatbots til
skolebrug kan give eleverne.
”Vi hverken kan eller skal fjerne information fra nettet,
men ChatGPT-funktionen er en anden model, hvor det i højere grad har karakter
af en samtale. Derfor skal vi være opmærksomme på de her dynamikker, når vi
kaster os nysgerrigt over de nye værktøjer, der kan hjælpe undervisningen”,
siger Sigurd Agersnap og tilføjer:
”Lærerne skal kunne være trygge ved at bruge en dansk model
som SkoleGPT, når kunstig intelligens er og bliver en større del af en digital
verden”.