Nachrichten / Spiele

Google möchte, dass Sie auf eigene Gefahr mit seinem KI-Chatbot chatten

Durchgesickerte Bilder von Google Pixel Watch enthüllen das wahrscheinliche Design

Neu-Delhi, 27. August (IANS) Google hat seinen experimentellen Chatbot mit künstlicher Intelligenz (KI) für die Öffentlichkeit geöffnet, und Sie können sich jetzt anmelden, um mit dem KI-gesteuerten Bot zu chatten, der auf dem umstrittenen Sprachmodell des Unternehmens trainiert wurde.

Google hat zuvor gewarnt, dass frühe Vorschauen seines Sprachmodells für Dialoganwendungen (LaMDA) „ungenaue oder unangemessene Inhalte zeigen können“.

Googles „AI Test Kitchen“ ist eine App, mit der Nutzer etwas über die neue KI-Technologie von Google erfahren, damit experimentieren und Feedback dazu geben können.

„Unser Ziel ist es, gemeinsam auf KI verantwortungsvoll zu lernen, uns zu verbessern und innovativ zu sein. Wir werden uns schrittweise für kleine Gruppen von Menschen öffnen“, sagte das Unternehmen.

Laut Alphabet- und Google-CEO Sundar Pichai soll „AI Test Kitchen“ „Ihnen eine Vorstellung davon vermitteln, wie es sein könnte, LaMDA in Ihren Händen zu halten“.

Die Fähigkeit dieser Sprachmodelle, endlose Möglichkeiten zu generieren, zeige Potenzial, "aber es bedeutet auch, dass sie es nicht immer richtig machen."

„Und obwohl wir in der neuesten Version von LaMDA erhebliche Sicherheits- und Genauigkeitsverbesserungen vorgenommen haben, stehen wir erst am Anfang einer Reise“, sagte Google.

„Wir haben der KI-Testküche mehrere Schutzschichten hinzugefügt. Diese Arbeit hat das Risiko minimiert, aber nicht beseitigt“, fügte er hinzu.

Google und Meta (ehemals Facebook) stellten ihre KI-Chatbots vor und baten die Öffentlichkeit um Feedback.

Frühe Berichte sind erschreckend, da der Meta-Chatbot namens BlenderBot 3 dachte, Mark Zuckerberg sei „gruselig und manipulativ“ und dass Donald Trump immer noch US-Präsident sein würde.

Meta sagte letzte Woche, dass alle Konversations-KI-Chatbots dafür bekannt sind, manchmal gefährliche, voreingenommene oder beleidigende Bemerkungen zu imitieren und zu erzeugen.

„BlenderBot kann immer noch unhöfliche oder beleidigende Kommentare abgeben, weshalb wir Feedback sammeln, das dazu beitragen wird, zukünftige Chatbots zu verbessern“, erwähnte das Unternehmen in einem Blogbeitrag.

Letzten Monat hat Google einen Ingenieur entlassen, weil er gegen seine Vertraulichkeitsvereinbarung verstoßen hatte, nachdem er behauptet hatte, die Konversations-KI des Technologiegiganten sei „empfindungsfähig“, weil sie subjektive Gefühle, Emotionen und Erfahrungen habe.

Lemoine interviewte auch LaMDA, der überraschende und schockierende Antworten gab.

(Bis auf den Titel ist der Rest dieses IANS-Artikels unbearbeitet)

Lesen Sie weiter, um weitere Technologieinformationen, Produktbewertungen, Funktionen und wissenschaftliche Updates zu erhalten Fun Academy