<?xml version="1.0" encoding="utf-8"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
    <channel>
        <title>Understanding Prompt Injection - Techniques, Challenges, and Advanced Escalation</title>
        <link>https://video.ut0pia.org/videos/watch/627260ef-fbe9-4d2b-97e2-44ca3dd38ce9</link>
        <description>Présentation par : Brian Vermeer (Snyk) 📕 Abstract: As developers, we’re embracing AI and large language models (LLMs) in our applications more than ever. However, there’s an increasing concern we need to be aware of: prompt injection. This sneaky attack can undermine our AI systems by manipulating the input to produce unintended outputs. In this session, we’ll break down what prompt injection really means and look at some common techniques attackers use, like instruction overrides and hidden prompts. But we won't stop there; we’ll also explore advanced challenges, including escalation techniques that can exacerbate the risks. Most importantly, we won’t just identify the problem. We’ll dive into practical steps you can take to mitigate these risks and keep your AI interactions secure. Join us at Devoxx to gain insights that will help you stay ahead in AI security and ensure your applications remain robust against these emerging threats. 📕 Résumé : En tant que développeurs, nous adoptons l'IA et les large language models (LLMs) dans nos applications plus que jamais. Cependant, il y a une préoccupation croissante dont nous devons être conscients : la prompt injection. Cette attaque sournoise peut compromettre nos systèmes d'IA en manipulant l'entrée pour produire des résultats non intentionnels. Dans cette session, nous allons décortiquer ce que signifie réellement la prompt injection et examiner certaines techniques courantes utilisées par les attaquants, comme les surcharges d'instructions et les prompts cachés. Mais nous ne nous arrêterons pas là ; nous explorerons également des défis avancés, y compris les techniques d'escalade qui peuvent aggraver les risques. Plus important encore, nous ne nous contenterons pas d'identifier le problème. Nous nous plongerons dans les étapes pratiques que vous pouvez prendre pour atténuer ces risques et sécuriser vos interactions avec l'IA. Rejoignez-nous à Devoxx pour acquérir des insights qui vous aideront à rester en avance en matière de sécurité de l'IA et à garantir que vos applications restent robustes face à ces menaces émergentes. Enregistré en avril 2026 à Paris, Palais des Congrès, Porte Maillot. 🔥 Pour rester informé sur l'actualité de Devoxx France, suivez nous sur LinkedIn : https://www.linkedin.com/company/devoxx-france/ Bluesky : https://bsky.app/profile/devoxx.fr consultez notre site web https://www.devoxx.fr/</description>
        <lastBuildDate>Wed, 13 May 2026 17:52:16 GMT</lastBuildDate>
        <docs>https://validator.w3.org/feed/docs/rss2.html</docs>
        <generator>PeerTube - https://video.ut0pia.org</generator>
        <image>
            <title>Understanding Prompt Injection - Techniques, Challenges, and Advanced Escalation</title>
            <url>https://video.ut0pia.org/lazy-static/avatars/0287a09a-aae7-4840-9843-b416426e7046.webp</url>
            <link>https://video.ut0pia.org/videos/watch/627260ef-fbe9-4d2b-97e2-44ca3dd38ce9</link>
        </image>
        <copyright>All rights reserved, unless otherwise specified in the terms specified at https://video.ut0pia.org/about and potential licenses granted by each content's rightholder.</copyright>
        <atom:link href="https://video.ut0pia.org/feeds/video-comments.xml?videoId=627260ef-fbe9-4d2b-97e2-44ca3dd38ce9" rel="self" type="application/rss+xml"/>
    </channel>
</rss>