Nachrichten / Spiele

Blenderbot 3, Metas neuester KI-Chatbot, beginnt mit Beta-Tests

Blenderbot 3, Metas neuester Chatbot mit künstlicher Intelligenz, beginnt mit dem Betatest

Die KI-Forschungslabore von Meta haben einen neuen hochmodernen Chatbot entwickelt und ihn öffentlich testen lassen.

BlenderBot 3 wird für öffentliche Benutzer in den Vereinigten Staaten veröffentlicht. Meta glaubt, dass BlenderBot 3 an regelmäßigen Chats teilnehmen und Fragen des digitalen Assistenten beantworten kann, beispielsweise um kinderfreundliche Orte zu identifizieren.

BlenderBot 3 chattet und beantwortet Anfragen wie Google

Der Bot ist ein Prototyp, der auf Metas früherer Arbeit mit Large Language Models (LLMS) basiert. BlenderBot wird mit riesigen Textdatensätzen trainiert, um statistische Muster zu finden und Sprache zu produzieren. Solche Algorithmen wurden verwendet, um Code für Programmierer zu generieren und Autoren dabei zu helfen, mentale Blockaden zu umgehen. Diese Modelle wiederholen Verzerrungen in ihren Trainingsdaten und erstellen häufig Lösungen für Benutzeranfragen (ein Problem, wenn sie als digitale Assistenten effektiv sein sollen).

Meta möchte, dass BlenderBot dieses Problem testet. Der Chatbot kann das Web nach bestimmten Themen durchsuchen. Benutzer können auf seine Antworten klicken, um herauszufinden, woher er ihre Informationen hat. BlenderBot 3 verwendet Anführungszeichen.

Meta versucht, Informationen über die enormen Schwierigkeiten des Sprachmodells zu sammeln, indem es einen Chatbot veröffentlicht. BlenderBot-Benutzer können verdächtige Antworten melden, und Meta hat versucht, „die Verwendung von Schimpfwörtern, Beleidigungen und kulturell inkorrekten Bemerkungen durch die Bots zu minimieren“. Wenn die Benutzer zustimmen, wird Meta ihre Diskussionen und Kommentare für KI-Forscher aufbewahren.

Kurt Shuster, ein Meta Research Engineer, der beim Design von BlenderBot 3 mitgewirkt hat, sagte gegenüber The Verge: „Wir verpflichten uns, alle Demo-Daten offenzulegen, um die Konversations-KI voranzutreiben.

Wie die KI-Entwicklung im Laufe der Jahre BlenderBot 3 zugute kommt

Meta

Tech-Unternehmen haben es im Allgemeinen vermieden, Prototypen von KI-Chatbots für die Öffentlichkeit freizugeben. Der Twitter-Chatbot von Microsoft, Tay, lernte 2016 durch öffentliche Interaktionen. Twitter-Nutzer trainierten Tay, rassistische, antisemitische und sexistische Dinge zu tun. Microsoft entfernte den Bot 24 Stunden später.

Meta argumentiert, dass sich die KI seit der Fehlfunktion von Tay weiterentwickelt hat und dass BlenderBot Sicherheitsschienen enthält, um eine Wiederholung zu verhindern.

BlenderBot ist ein statisches Modell, sagt Mary Williamson, Head of Research Engineering bei Facebook AI Research (FAIR). Es kann sich merken, was Benutzer in einem Chat sagen (und speichert diese Informationen über Browser-Cookies, wenn ein Benutzer den Chat verlässt und zurückkehrt), aber diese Daten werden nur verwendet, um das System später zu verbessern.

„Es ist nur meine Sichtweise, aber dieser [Tay]-Vorfall ist ernst, weil er diesen Chatbot-Winter verursacht hat“, sagte Williamson gegenüber The Verge.

Williamson glaubt, dass die meisten Chatbots aufgabenorientiert sind. Betrachten Sie Kundenservice-Bots, die Verbrauchern einen vorprogrammierten Konversationsbaum anbieten, bevor sie sie an einen menschlichen Vertreter weitergeben. Meta argumentiert, dass die einzige Möglichkeit, ein System zu entwerfen, das echte kostenlose Chats wie Menschen haben kann, darin besteht, die Bots dies tun zu lassen.

Williamson findet es traurig, dass die Bots nichts Konstruktives sagen können. "Wir veröffentlichen dies verantwortungsbewusst für weitere Recherchen."

Meta veröffentlicht auch die BlenderBot 3-Quelle, den Trainingsdatensatz und kleinere Modellversionen. Forscher können das 175-Milliarden-Parameter-Modell hier anfordern.

Für mehr Technische Neuigkeiten, ProduktrezensionenSci-Tech-Features und -Updates, lesen Sie weiter Cipher.in