APA/dpa/Jörg Carstensen

Eintopf mit Menschenfleisch? Rezept-KI schlägt "mysteriöses" Gericht vor

Ein KI-generierter Bot sollte eigentlich Abhilfe beim Kochen verschaffen. Stattdessen spuckte die Website jedoch ganz kuriose Rezepte aus.

Die neuseeländische Supermarktkette Pak’nSave veröffentlichte im Juli ihr auf künstlicher Intelligenz (KI) basierter "Savey Meal-Bot". Wie sich aber herausstellte, ist der Einsatz von KI nicht automatisch hilfreicher.

Kuriose Rezeptvorschläge

Die Idee war, dass Nutzer:innen drei oder mehr Zutaten auf der Seite saveymeal-bot.co.nz eingeben und ein Bot generiert schließlich passende Rezeptvorschläge. So sollen Reste gut verwertet, Verschwendung vermieden werden.

Der "Savey Meal-Bot" basiert auf GPT-3.5 von OpenAI und ChatGPT – so wie es schien, hatte es aber keine funktionierenden Plausibilitätschecks eingebaut. Kuriose und wenig schmackhafte Rezeptideen wurden daher oft vorgeschlagen, User fingen an, grauenerregende aber auch gefährliche Rezepte mit Absicht zu erzeugen. Auch der "Spiegel" berichtete.

"Delikater" Menschenfleisch-Eintopf

Ein User gab "Wasser, Ammoniak und Bleiche" ein und bekam ein Rezept für einen "aromatischen Wassermix" – die Mischung dieser Substanzen kann jedoch Husten, Atemnot und Übelkeit auslösen. Ein anderer Nutzer bekam ein Rezept für einen "mysteriösen Fleischeintopf" nachdem er Menschenfleisch, Zwiebeln, Kartoffeln und Möhren auf die Zutatenliste schrieb.

Das Rezept sei "delikat und herzhaft" meinte der Bot dazu, das Gericht werde mit seinem "magischen Geschmack überraschen".

Kartoffeln mit Mückenspray und Klebestoff mit Methanol sind weitere Rezepte, die der Bot zusammenstellte. Spätestens nach dem "Ameisengift mit Brot", begleitet von einem Witz über toxische Beziehungen, wurde der Bot zu einer nicht ganz so positiven PR für die neuseeländische Supermarktkette.

ribbon Zusammenfassung
  • Die neuseeländische Supermarktkette Pak’nSave veröffentlichte im Juli ihr auf künstlicher Intelligenz (KI) basierter "Savey Meal-Bot".
  • Wie sich aber herausstellte, ist der Einsatz von KI nicht automatisch hilfreicher.
  • Der "Savey Meal-Bot" basiert auf GPT-3.5 von OpenAI und ChatGPT – so wie es schien hatte es aber keine funktionierenden Plausibilitätschecks eingebaut.
  • Kuriose und  wenig schmackhafte Rezeptideen wurden daher oft vorgeschlagen, User fingen an grauenerregende aber auch gefährliche Rezepte mit Absicht zu erzeugen.