Information

Das AI-Team von Microsoft veröffentlicht einen Bot, der gefälschte Kommentare generieren kann. Das Internet fragt nach dem Grund

Das AI-Team von Microsoft veröffentlicht einen Bot, der gefälschte Kommentare generieren kann. Das Internet fragt nach dem Grund


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Seltsamerweise hat ein Team von Microsoft Arbeiten an einem KI-Bot namens DeepCom veröffentlicht, mit dem gefälschte Kommentare zu Nachrichtenartikeln generiert werden können.

Das Team sagt, dass diese gefälschten Kommentare ein Engagement für neue Websites und Nachrichtenagenturen schaffen können, was im Wesentlichen die Verwendung gefälschter Konten fördert, um ein echtes Engagement für gefälschte Diskussionen zu generieren.

VERBINDUNG: Ein neues AI-Tool kann uns helfen, AI-WRITTEN FAKE NEWS zu bekämpfen

Brauchen wir das

Die kurze Antwort. Nein.

Im Internet wimmelt es bereits von gefälschten Konten und Bots, mit denen die breite Öffentlichkeit getrollt und falsch informiert wird.

Die Frage, die sich das Forscherteam von Microsoft und der Beihang University in China zu stellen scheint, lautet jedoch: Was schadet es, wenn gefälschte Kommentare verwendet werden, um die Diskussion in echten Nachrichtenlesern anzuregen und anzuregen?

Die Forscher argumentieren, dass Leser gerne Kommentare unter Nachrichtenartikeln veröffentlichen und ihre Meinungen teilen. Für Verlage erhöht dies das Engagement. Warum also nicht alles einen KI-Schub geben?

"Solche Systeme können den Kommentarservice für eine Nachrichtenwebsite vom Kaltstart an ermöglichen, das Leseerlebnis für weniger kommentierte Nachrichtenartikel verbessern und die Fähigkeitslisten anderer Anwendungen für künstliche Intelligenz wie Chatbots erweitern", heißt es in dem Artikel.

In einem Artikel von Pekinger Forschern wird eine neue Technik des maschinellen Lernens vorgestellt, deren Hauptanwendung Trolling und Desinformation zu sein scheinen. Es wurde zur Veröffentlichung bei EMLNP angenommen, einem der drei wichtigsten Orte für die Forschung zur Verarbeitung natürlicher Sprache. Cool Cool Coolhttps: //t.co/ZOcrhjKiEcpic.twitter.com/Y8U5AjENrh

- Arvind Narayanan (@random_walker), 30. September 2019

Der Haken ist, dass das neue, auf arXiv veröffentlichte Papier keine Erwähnungen möglicher böswilliger Verwendungen oder der Gefahren enthält, die die Technologie durch die Verbreitung gefälschter Nachrichten darstellen könnte. Mehrere Kritiker haben bereits Bedenken geäußert.

Neuronale Netze zum Lesen von Nachrichten

Wie Das Register Berichten zufolge verwendet DeepCom gleichzeitig zwei neuronale Netze: ein Lese- und ein Erzeugungsnetzwerk.

Alle Wörter in einem Nachrichtenartikel werden als Vektoren codiert, die die KI analysieren kann. Das lesende Netzwerk nimmt die wichtigsten Aspekte des Artikels (eine Person, ein Ereignis oder ein Thema) auf, bevor das generierende Netzwerk darauf basierend einen Kommentar erstellt.

Die Forscher trainierten DeepCom an einem chinesischen Datensatz, der aus Millionen menschlicher Kommentare zu Online-Nachrichtenartikeln sowie einem englischsprachigen Datensatz aus Artikeln auf Yahoo besteht! Nachrichten.

Das obige Beispiel zeigt wichtige Teile von a Yahoo! Artikel rot hervorgehoben (das Lesenetzwerk) und was der Bot in Blau (das generierende Netzwerk) kommentiert.

Ein weiterer umstrittener Bot

Es ist nicht Microsofts erster Pinsel mit Bot-Kontroversen. Ihr KI-Bot "Tay" musste vor drei Jahren abgeschaltet werden, nachdem er schnell gelernt hatte, rassistische, homophobe und antifeministische Nachrichten zu twittern, nachdem er in einer riesigen Datenbank von Tweets geschult worden war.

Tay musste bekanntermaßen nach nur 16 Stunden wegen seiner unaufgeforderten Ausgießung hasserfüllter Tweets abgeschaltet werden. Es scheint, dass das Training einer KI für Online-Kommentatoren - Menschen, die aufgrund ihrer Anonymität oft alle Hemmungen verlieren - doch keine so gute Idee ist.

Es scheint, dass mehr Arbeit erforderlich ist, bevor DeepCom wirklich Engagement anregen oder Kommentare erstellen kann, die dazu dienen könnten, die Gesellschaft in großem Umfang zu stören. Derzeit sind die vom AI-Bot generierten Kommentare kurz und einfach.

Die Forschung wurde jedoch in EMNLP-IJCNLP aufgenommen, eine internationale Konferenz zur Verarbeitung natürlicher Sprache, die nächsten Monat (3. bis 7. November) in Hongkong stattfinden wird.

In der Zwischenzeit haben MIT-Forscher ein KI-Tool namens Giant Language Model Test Room (GLTR) entwickelt, das von KI geschriebenen Text erkennen kann. Möglicherweise müssen sie ihr Spiel verbessern.


Schau das Video: Bot Framework Building awesome experiences in Microsoft Teams Part 1 of 3 (Kann 2022).