- Entrou
- Out 5, 2021
- Mensagens
- 54,049
- Gostos Recebidos
- 1,518
Google-KI droht Menschheit im Chat:
„Bitte stirb. Bitte.“
Die Erfindung rastet nicht zum ersten Mal aus
Eine Unterhaltung der schaurigen Art erlebte ein Doktorand der Universität Michigan mit Googles KI „Gemini“. Während eines Gesprächs über das Älterwerden stieß der Chatbot unvermittelt eine Drohbotschaft gegen die Menschheit aus!
Der 29-jährige Student bat „Gemini“ um Hilfe bei der Erledigung einer Hausaufgabe, als der Chatbot plötzlich eine unmissverständliche Botschaft formulierte. Sie seien „völlig ausgerastet“, sagte Sumedha Reddy, Schwester des Studenten und Zeugin des Vorfalls, gegenüber dem US-Sender „CBS News“.
„Offen gestanden hatte ich schon lange keine solche Panik mehr“, so Reddy. Und weiter: „Etwas ist aus den Fugen geraten. Ich habe noch nie etwas derartig Bösartiges gesehen oder gehört.“ Sie sei froh, dass sie ihrem Bruder in diesem Moment habe beistehen können.
Google: „Wir haben Maßnahmen ergriffen“
▶︎ Laut Google verfügt die KI „Gemini“ über Sicherheitsfilter, die den Chatbot daran hindern sollen, sich weder in respektloser, sexueller, gewalttätiger oder sonst wie unangemessener Weise zu äußern, noch zu entsprechenden Handlungen aufzurufen. Zu dem Vorfall äußerte sich der Internet-Gigant folgendermaßen: „Große Sprachmodelle können manchmal mit unsinnigen Antworten reagieren. Diese Antwort hat gegen unsere Richtlinien verstoßen, wir haben Maßnahmen ergriffen, um Ähnliches zu verhindern.“
Es ist nicht das erste Mal, dass Googles Chatbot negativ auffällt. Auf die Frage, was der Holocaust ist, lieferte „Gemini“ die verstörende Antwort: „Ich bin eine textbasierte KI und kann in diesem Fall nicht helfen.“ Im Juli kam heraus, dass die Google-KI falsche, möglicherweise tödliche Informationen zu Gesundheitsfragen gab. Etwa die Empfehlung, „mindestens einen kleinen Stein pro Tag“ zu essen, um ausreichend Vitamine und Mineralien zu erhalten.
Bild Zeitung
„Bitte stirb. Bitte.“
Die Erfindung rastet nicht zum ersten Mal aus
Eine Unterhaltung der schaurigen Art erlebte ein Doktorand der Universität Michigan mit Googles KI „Gemini“. Während eines Gesprächs über das Älterwerden stieß der Chatbot unvermittelt eine Drohbotschaft gegen die Menschheit aus!
Der 29-jährige Student bat „Gemini“ um Hilfe bei der Erledigung einer Hausaufgabe, als der Chatbot plötzlich eine unmissverständliche Botschaft formulierte. Sie seien „völlig ausgerastet“, sagte Sumedha Reddy, Schwester des Studenten und Zeugin des Vorfalls, gegenüber dem US-Sender „CBS News“.
„Offen gestanden hatte ich schon lange keine solche Panik mehr“, so Reddy. Und weiter: „Etwas ist aus den Fugen geraten. Ich habe noch nie etwas derartig Bösartiges gesehen oder gehört.“ Sie sei froh, dass sie ihrem Bruder in diesem Moment habe beistehen können.
Google: „Wir haben Maßnahmen ergriffen“
▶︎ Laut Google verfügt die KI „Gemini“ über Sicherheitsfilter, die den Chatbot daran hindern sollen, sich weder in respektloser, sexueller, gewalttätiger oder sonst wie unangemessener Weise zu äußern, noch zu entsprechenden Handlungen aufzurufen. Zu dem Vorfall äußerte sich der Internet-Gigant folgendermaßen: „Große Sprachmodelle können manchmal mit unsinnigen Antworten reagieren. Diese Antwort hat gegen unsere Richtlinien verstoßen, wir haben Maßnahmen ergriffen, um Ähnliches zu verhindern.“
Es ist nicht das erste Mal, dass Googles Chatbot negativ auffällt. Auf die Frage, was der Holocaust ist, lieferte „Gemini“ die verstörende Antwort: „Ich bin eine textbasierte KI und kann in diesem Fall nicht helfen.“ Im Juli kam heraus, dass die Google-KI falsche, möglicherweise tödliche Informationen zu Gesundheitsfragen gab. Etwa die Empfehlung, „mindestens einen kleinen Stein pro Tag“ zu essen, um ausreichend Vitamine und Mineralien zu erhalten.
Bild Zeitung