Wenn ChatGPT giftiges Natriumbromid zum Verzehr empfiehlt
Schlecht beraten. Ein US-Amerikaner ersetzte auf Anraten der KI sein Tafelsalz durch Natriumbromid – und erlitt eine Vergiftung wie aus dem historischen Lehrbuch. Text: Maya McKechneay | Fotos: generiert mit Adobe Firefly …