
Otrava dat v umělé inteligenci je narůstajícím problémem, zejména pro velké jazykové modely, jako je ChatGPT. Studie zjistila, že vkládání škodlivých souborů do tréninkových dat může AI systém tajně poškodit. Otrava dat může mít formu přímých útoků, které mění výstup na specifický dotaz, nebo nepřímých útoků, které zhoršují celkový výkon. Může se jednat o „backdoor“ útoky nebo šíření dezinformací. Takové praktiky představují rizika pro kybernetickou bezpečnost a ukazují křehkost těchto technologií navzdory jejich populárnosti.
- Pro vkládání komentářů se musíte přihlásit
Komentáře