Monday , April 15 2024
Home / Nachricht / Google-Antwort auf die Frage, warum die Gemini-Bildgenerierung einen Fehler gemacht hat

Google-Antwort auf die Frage, warum die Gemini-Bildgenerierung einen Fehler gemacht hat

Google hat kürzlich eine neue Funktion in seinem Gemini AI-Chatbot (ehemals Bard) eingeführt, mit der Benutzer KI-Fotos mithilfe von Textbefehlen erstellen können. Diese Funktion stieß jedoch auf Kritik, da sie Bilder von US-Gründervätern und deutschen Soldaten aus der Nazizeit produzierte, die aufgrund des Ausschlusses weißer Menschen als historisch ungenau galten. Google gab den Fehler zu und stoppte vorübergehend die Bildgenerierung von Personen in Gemini und räumte ein, dass der Chatbot „das Ziel verfehlt“ habe. Jetzt hat Google Details darüber bereitgestellt, was bei der KI-Bilderstellung von Gemini schief gelaufen ist.

Laut Prabhakar Raghavan, Senior Vice President von Google, führten zwei Probleme zu Problemen mit der Funktion zur Erstellung menschlicher Bilder von Gemini.

Erstens funktionierten unsere Bemühungen, Zwillinge dazu zu bringen, die Vielfalt der Menschen zu zeigen, nicht immer wie geplant. Und zweitens wurde das Modell mit der Zeit zu vorsichtig und reagierte auf einige Aufforderungen überhaupt nicht, selbst wenn sie harmlos waren“, sagte er.

Die Bildfunktion der Gemini-Chat-App nutzt ein KI-Modell namens Imagen 2. Google sagt, wenn Nutzer nach Bildern von Menschen in bestimmten kulturellen oder historischen Situationen fragen, sollten sie auf jeden Fall die richtige Antwort erhalten.

Er erklärte, dass diese beiden Probleme dazu führten, dass das Modell in manchen Fällen zu stark und in anderen zu vorsichtig agierte. Dies führte zu Bildern, die peinlich und falsch waren.

Google arbeitet an einer verbesserten Version

Google erwähnte, dass sie derzeit an einer verbesserten Version von Gemini arbeiten, die später verfügbar sein wird. Sie erinnerten die Benutzer daran, dass Gemini möglicherweise nicht immer zuverlässig ist, insbesondere beim Erstellen von Bildern oder Texten zu aktuellen Ereignissen, wechselnden Nachrichten oder sensiblen Themen.

Sie erkannten an, dass wie bei allen Large Language Models (LLMs) Fehler passieren können. Manchmal macht die KI die Dinge einfach nicht richtig. Sie versicherten den Benutzern, dass sie stets bestrebt seien, Verbesserungen vorzunehmen.

Es ist wichtig zu beachten, dass Zwillinge manchmal peinliche, falsche oder beleidigende Ergebnisse liefern können. Google versicherte den Nutzern, dass sie sich weiterhin um alle Probleme kümmern werden, die sie finden.

About admin

Check Also

Nachricht

Meta testet Cross-Posts von Facebook zu Threads

Die Testversion ist nur für iOS verfügbar und in der EU derzeit nicht verfügbar. Obwohl …

Leave a Reply

Your email address will not be published. Required fields are marked *