Discussion
Loading...

Post

Log in
  • About
  • Code of conduct
  • Privacy
  • Users
  • Instances
  • About Bonfire
heise online
heise online
@heiseonline@social.heise.de  ·  activity timestamp 2 days ago

Was passiert, wenn man KI-Modelle wie GPT-5.2, Claude Sonnet 4 oder Gemini 3 Flash als Krisenberater einsetzt? Forscher des King's College London haben genau das in Konfliktsimulationen getestet – mit erschreckenden Ergebnissen. 😰

Zum Artikel: https://heise.de/-11190280?wt_mc=sm.red.ho.mastodon.mastodon.md_beitraege.md_beitraege&utm_source=mastodon

#ki #kuenstlicheintelligenz #atomwaffen #kriegssimulation #kiforschung

Auf dem Bild ist eine Person mit VR-Brille in Militäruniform zu sehen. Im Bild steht: "KI-Modelle greifen in Kriegssimulationen fast immer zu Atomwaffen" darunter steht: "Forscher warnen: Als militärische Entscheider wären aktuelle Systeme brandgefährlich."
Auf dem Bild ist eine Person mit VR-Brille in Militäruniform zu sehen. Im Bild steht: "KI-Modelle greifen in Kriegssimulationen fast immer zu Atomwaffen" darunter steht: "Forscher warnen: Als militärische Entscheider wären aktuelle Systeme brandgefährlich."
Auf dem Bild ist eine Person mit VR-Brille in Militäruniform zu sehen. Im Bild steht: "KI-Modelle greifen in Kriegssimulationen fast immer zu Atomwaffen" darunter steht: "Forscher warnen: Als militärische Entscheider wären aktuelle Systeme brandgefährlich."
heise online

Atomwaffen als erste Wahl: KI neigt zur Eskalation

LLMs neigen in Konfliktsimulationen dazu, schnell Atomwaffen einzusetzen. Eine Studie zeigt: In 95 Prozent der Planspiele kamen Atomwaffen zum Einsatz.
  • Copy link
  • Flag this post
  • Block

bonfire.cafe

A space for Bonfire maintainers and contributors to communicate

bonfire.cafe: About · Code of conduct · Privacy · Users · Instances
Bonfire social · 1.0.2-alpha.34 no JS en
Automatic federation enabled
Log in
Instance logo
  • Explore
  • About
  • Members
  • Code of Conduct