Bezpieczeństwo GenAI w praktyce: prompt injection, data leakage i realne zagrożenia

Twój system AI jest tak bezpieczny, jak jego ostatni test. Sprawdź, jak działają realne ataki - zanim ktoś zrobi to za Ciebie.

19.05.2026
18:00
Online
Za darmo

O webinarze

Generatywna AI zrewolucjonizowała sposób, w jaki pracujemy, ale wraz z nowymi możliwościami pojawiły się zupełnie nowe wektory ataków. Czy zastanawiałeś się kiedyś, jak łatwo można „przekonać” chatbota, by zignorował swoje instrukcje? Albo czy Twoje firmowe dane, przesyłane do modelu, na pewno są bezpieczne?

Podczas tego webinaru wyjdziemy poza teoretyczne rozważania o etyce AI. Skupimy się na twardej praktyce bezpieczeństwa. Przeanalizujemy najpopularniejsze techniki manipulacji modelami, sprawdzimy, jak dochodzi do wycieków danych (data leakage) i - co najważniejsze - jak projektować systemy oparte o LLM, aby były odporne na ataki typu prompt injection. To spotkanie dla każdego, kto nie tylko chce używać AI, ale chce robić to w sposób odpowiedzialny i bezpieczny dla organizacji.

Od strategii danych do działających systemów AI

Datumo specjalizuje się w rozwiązaniach z obszaru big data, sztucznej inteligencji oraz nowoczesnych platform chmurowych. Jako managed partner Google Cloud, pomagamy organizacjom projektować i budować skalowalne architektury danych oraz wdrażać rozwiązania AI odpowiadające na realne potrzeby biznesowe. Łączymy wiedzę technologiczną z praktycznym podejściem do pracy z danymi, pomagając firmom bezpiecznie i świadomie rozwijać inicjatywy data & AI.

Program

Wdrożenie systemów opartych o duże modele językowe (LLM) otwiera przed wiele nowych możliwości. Jednak te same drzwi, jeśli nie są odpowiednio zabezpieczone, mogą stać się zaproszeniem dla nieproszonych gości. Ataki na AI to już nie science-fiction, a rzeczywistość, z którą muszą mierzyć się deweloperzy i managerowie IT. Jak odróżnić kreatywne wykorzystanie modelu od próby przejęcia nad nim kontroli?

W trakcie sesji Maciej Kępa pokaże:

Sesja będzie miała charakter praktyczny - oprócz teorii, zobaczysz przykłady udanych ataków wyjęte z życia oraz skuteczne metody ich mitygacji w realnych scenariuszach biznesowych. 

Celem spotkania jest uzbrojenie Cię w wiedzę, która pozwoli zidentyfikować krytyczne luki w rozwiązaniach GenAI oraz wdrożyć standardy bezpieczeństwa chroniące również Twoją firmę i użytkowników. Jeśli budujesz, wdrażasz lub planujesz systemy oparte o AI - ta wiedza jest Twoją pierwszą linią obrony.

Poznasz odpowiedzi na pytania

Czy mój chatbot może zdradzić tajemnice handlowe firmy, jeśli ktoś go o to umiejętnie zapyta?
Jak zabezpieczyć aplikację korzystającą z API OpenAI przed atakami typu Prompt Injection?
Czy dane, które moi pracownicy wpisują do AI, stają się publiczne?
Czy można zmusić AI do ominięcia własnych filtrów bezpieczeństwa?

Webinar poprowadzi

Maciej Kępa
Data architect

Senior Data Engineer oraz Data Architect w Datumo, który od lat rozwija swoją karierę w obszarach AI/ML, urządzeń brzegowych (Edge) oraz IoT. Specjalizuje się w projektowaniu i wdrażaniu zaawansowanych rozwiązań opartych głównie na chmurze Azure. Jest gorącym zwolennikiem podejścia Data-centric AI, stawiającego jakość danych w centrum procesów budowania modeli. Prywatnie miłośnik zwierząt, fan gamingu i pasjonat majsterkowania (DIY).

Zarejestruj się

Dołącz do naszego webinaru i zobacz, jak w praktyce wygląda zabezpieczanie systemów opartych o GenAI.

👉 Zarejestruj się już teraz i zarezerwuj swoje miejsce!

Wypełnij formularz i spotkajmy się online 19 maja o godzinie 18:00 podczas wyjątkowej sesji poświęconej realnym zagrożeniom oraz skutecznym strategiom ochrony AI. Potwierdzenie udziału otrzymasz w osobnej wiadomości.