Har du styr på sikkerheden i din sprogmodel?

AI Denmark - Un podcast de AI Denmark - Les jeudis

Catégories:

Værktøjer som ChatGPT, Copilot og Gemini kan være fristende at bruge – men man skal have styr på sin sikkerhed – ligesom med alle andre it-løsninger.Og især i firmaer og organisationer bør LLM-sikkerhed afgjort være på dagsordenen. Det gælder både vurdering af selve modellerne man bruger, udefrakommende manipulation af prompts, hvilke firmadata man risikerer at lække til modellerne, hvilke resultater man får og hvad man bruger dem til.Jeg har haft besøg i studiet af Zaruhi Aslanyan, som er sikkerhedsarkitekt på Alexandra Instituttet og Michael Rømer Bennike, der er senior sikkerhedsarkitekt samme sted, for at høre mere om udfordringerne og hvad man kan gøre.Desværre er der – ligesom med al anden it-sikkerhed – ikke nogle nemme løsninger...Lyt med 🤖LINKSNYHEDERThe Verge prøver AI-assistenten Rabbit R1Metas nye Llama 3Kafferistning med AI🎧 BKI-episode fra 2022Lavender – Israels AI-våbenSciAm om "Lethal Autonomous Weapons"AI-film på vejSkattealgoritmer mørklagtOvertræder ChatGPT GDPR?FT leverer træningsdata til OpenAILLM-SIKKERHEDMichael Rømer BennikeZaruhi AslanyanAlexandra Instituttet"LLM-sikkerhed for dummies" – med de 10 største risici ved LLM'erWired: Hold dine data ude af træningsmaterialet

Visit the podcast's native language site