Red Teaming AI
A Field Manual for Attacking Intelligent Systems
-
13% KEDVEZMÉNY?
- A kedvezmény csak az 'Értesítés a kedvenc témákról' hírlevelünk címzettjeinek rendeléseire érvényes.
- Kiadói listaár GBP 69.99
-
31 600 Ft (30 095 Ft + 5% áfa)
Az ár azért becsült, mert a rendelés pillanatában nem lehet pontosan tudni, hogy a beérkezéskor milyen lesz a forint árfolyama az adott termék eredeti devizájához képest. Ha a forint romlana, kissé többet, ha javulna, kissé kevesebbet kell majd fizetnie.
- Kedvezmény(ek) 13% (cc. 4 108 Ft off)
- Kedvezményes ár 27 492 Ft (26 183 Ft + 5% áfa)
Iratkozzon fel most és részesüljön kedvezőbb árainkból!
Feliratkozom
31 600 Ft
Beszerezhetőség
Még nem jelent meg, de rendelhető. A megjelenéstől számított néhány héten belül megérkezik.
Why don't you give exact delivery time?
A beszerzés időigényét az eddigi tapasztalatokra alapozva adjuk meg. Azért becsült, mert a terméket külföldről hozzuk be, így a kiadó kiszolgálásának pillanatnyi gyorsaságától is függ. A megadottnál gyorsabb és lassabb szállítás is elképzelhető, de mindent megteszünk, hogy Ön a lehető leghamarabb jusson hozzá a termékhez.
A termék adatai:
- Kiadó No Starch Press
- Megjelenés dátuma 2026. július 28.
- ISBN 9781718504721
- Kötéstípus Puhakötés
- Terjedelem500 oldal
- Méret 235x178 mm
- Nyelv angol 700
Kategóriák
Hosszú leírás:
AI is no longer a futuristic concept-it's embedded in critical systems shaping finance, healthcare, infrastructure, and national security. But with this power comes unprecedented risk. Red Teaming AI arms you with the mindset, methodology, and tools to proactively test and secure intelligent systems before real adversaries exploit them. Written for security professionals, researchers, and AI practitioners, this field manual goes beyond theory. You'll learn how to map the new AI attack surface, anticipate adversarial moves, and simulate real-world threats to uncover hidden vulnerabilities. You'll Learn How To: Think in graphs, not checklists: trace attack paths through interconnected AI components, data pipelines, and human interactions, Poison the well: explore how adversaries corrupt training data to implant backdoors and erode model integrity, Fool the oracle: craft evasion attacks that manipulate AI perception at decision time, Hijack conversations: execute prompt injection attacks that turn Large Language Models into insider threats, Steal the brain: probe for model extraction and privacy attacks that compromise valuable IP, Conduct full-spectrum campaigns: use the STRATEGEMS framework and the AI Kill Graph to plan, execute, and report professional-grade red team engagements. Traditional security methods can't keep up with adversarial AI. From manipulated financial agents to compromised autonomous vehicles, real-world failures have already caused billions in losses and threatened lives. Red Teaming AI equips you to meet this challenge with practical techniques grounded in real attack scenarios and cutting-edge research.
Több