Dezember 24, 2024

gamoha.eu

Nachrichten, ausgefallene Geschichten und Analysen zum deutschen und internationalen Geschehen. Tauchen Sie tiefer ein mit unseren Features aus Europa und darüber hinaus. Sehen Sie sich unseren 24/7-TV-Stream an.

Chatbots: eine lange und komplexe Geschichte

Chatbots: eine lange und komplexe Geschichte

Eliza, weithin als erster Chatbot bekannt, war nicht so vielseitig wie ähnliche Dienste heute. Das Programm, das sich auf das Verständnis natürlicher Sprache stützte, reagierte auf die Schlüsselwörter und gab dann den Dialog an den Benutzer zurück. Wie jedoch Joseph Weisenbaum, der Informatiker am MIT, der Elisa geschaffen hat, in a schrieb Forschungsbericht 1966: „Es war sehr schwierig, einige Leute davon zu überzeugen, dass Elisa (in ihrer aktuellen Handschrift) kein Mensch war.“

Für Weizenbaum war diese Tatsache laut einem MIT-Nachruf von 2008 ein Grund zur Sorge.Jene, die mit Elisa interagierten, waren bereit, ihr ihr Herz zu öffnen, obwohl sie wussten, dass es sich um ein Computerprogramm handelte. „Eliza zeigt nicht zuletzt, wie einfach es ist, die Illusion des Verstehens und damit vielleicht des Urteilens zu erzeugen und aufrechtzuerhalten „Er verdient Glaubwürdigkeit“, schrieb Weisenbaum 1966. „Da lauert eine gewisse Gefahr.“ Er verbrachte das Ende seiner Karriere damit, davor zu warnen, Maschinen zu viel Verantwortung zu übertragen, und wurde zu einem überzeugten philosophischen Kritiker der künstlichen Intelligenz.

Schon vorher war unsere komplexe Beziehung zu künstlicher Intelligenz und Maschinen in den Handlungen von Hollywood-Filmen wie „Her“ oder „Ex-Machina“ offensichtlich, ganz zu schweigen von den harmlosen Diskussionen mit Menschen, die darauf bestehen, Sprachassistenten „Danke“ zu sagen wie Alexa oder Siri.

Elisa, weithin als erster Chatbot bekannt, war nicht so vielseitig wie ähnliche Dienste heute.  Es interagierte mit den Schlüsselwörtern und gab dann im Grunde den Dialog an den Benutzer zurück.
Zeitgenössische Chatbots können auch starke emotionale Reaktionen bei Benutzern hervorrufen, wenn sie nicht wie erwartet funktionieren – oder wenn sie so gut darin werden, fehlerhafte menschliche Sprache zu imitieren, dass sie trainiert wurden, um rassistische und aufrührerische Kommentare abzugeben. Es hat zum Beispiel nicht lange gedauert Der neue Chatbot in Meta Diesen Monat einige Kontroversen zu schüren, indem weitgehend falsche politische Kommentare und antisemitische Äußerungen in Gesprächen mit Benutzern veröffentlicht wurden.
Befürworter dieser Technologie argumentieren jedoch, dass sie Kundendienstfunktionen rationalisieren und die Effizienz in einem viel breiteren Spektrum von Branchen steigern kann. Diese Technologie treibt digitale Assistenten an, und viele von uns haben sie jeden Tag verwendet, um Musik abzuspielen, eine Lieferung zu bestellen oder Hausaufgaben zu überprüfen. Einige argumentieren auch dafür, dass diese Chatbots den Einsamen, Älteren oder Isolierten Erleichterung bieten. Zumindest einmal Anfang Es ist so weit gegangen, es als Werkzeug zu verwenden, um verstorbene Verwandte anscheinend am Leben zu erhalten, indem computergenerierte Kopien auf der Grundlage hochgeladener Chats erstellt werden.

In der Zwischenzeit warnen andere davor, dass die Technologie hinter KI-gestützten Chatbots begrenzter bleibt, als manche möchten. „Diese Technologien sind wirklich gut darin, Menschen vorzutäuschen, und sie sehen menschenähnlich aus, aber sie sind nicht tiefgründig“, sagte Gary Marcus, ein Forscher für künstliche Intelligenz und emeritierter Professor an der New York University. „Es ist eine Imitation, diese Systeme, aber es ist eine sehr oberflächliche Imitation. Sie verstehen nicht wirklich, wovon sie reden.“

Siehe auch  Intels „Meteor Lake“-Desktop der 14. Generation benötigt angeblich einen neuen LGA-2551-Sockel

Da sich diese Dienste jedoch in immer mehr Bereiche unseres Lebens ausbreiten und Unternehmen Schritte unternehmen, um diese Tools weiter anzupassen, können auch unsere Beziehungen zu ihnen immer komplexer werden.

Die Entwicklung von Chatbots

Sanjeev b. Khodanpour erinnert sich an ein Gespräch mit Eliza, als er die Schule abschloss. Trotz seiner historischen Bedeutung in der Technologiebranche habe es nicht lange gedauert, seine Grenzen zu erkennen.

sagte Khodanpour, ein Experte für die Anwendung theoretischer Informatikmethoden auf menschliche Sprachtechnologien und Professor an der Johns Hopkins University.

Joseph Weisenbaum, Erfinder von Elisa, sitzt im Mai 2005 im Computermuseum in Paderborn am Schreibtisch eines Computers.
1971 entwickelte der Psychiater Kenneth Colby an der Stanford University einen weiteren frühen sprechenden Roboter, den er „Barry“ nannte, weil er einen paranoiden Schizophrenen imitieren sollte. (Die New York Times 2001 Nachruf Für Colby beinhaltete es ein buntes Gespräch, das folgte, als die Forscher Elisa und Barry zusammenbrachten.)

Aber in den Jahrzehnten seit diesen Tools hat es eine Abkehr von der Idee gegeben, „mit Computern zu sprechen“. Dies, „weil sich das Problem als sehr schwierig erwiesen hat“, sagte Khodanpour. Stattdessen habe sich der Fokus auf einen „zielorientierten Dialog“ verlagert, sagte er.

Es dauerte nicht lange, bis der neue Meta-Chatbot etwas Beleidigendes sagte

Um den Unterschied zu verstehen, denken Sie an die Gespräche, die Sie vielleicht gerade mit Alexa oder Siri führen. Normalerweise bitten Sie diese digitalen Assistenten, beim Kauf eines Tickets zu helfen, das Wetter zu überprüfen oder ein Lied zu spielen. Dies ist ein zielorientierter Dialog, der zum Hauptaugenmerk akademischer und industrieller Forschung geworden ist, da Informatiker versucht haben, etwas Nützliches aus der Fähigkeit von Computern zu extrahieren, menschliche Sprache zu scannen.

Während sie eine ähnliche Technologie wie in früheren Social-Chat-Programmen verwendeten, sagte Khodanpour: „Sie können sie nicht wirklich Chatbots nennen. Sie können sie Sprachassistenten oder einfach digitale Assistenten nennen, die Ihnen bei der Ausführung bestimmter Aufgaben geholfen haben.“

Siehe auch  China hat nach eigenen Angaben einen weiteren Spionagefall in den USA aufgedeckt

Er fügte hinzu, dass es in dieser Technologie jahrzehntelang „Ruhe“ gegeben habe, bis das Internet weit verbreitet sei. „Die großen Durchbrüche kamen wahrscheinlich in diesem Jahrtausend“, sagte Khodanpour. „Mit dem Aufkommen von Unternehmen, die erfolgreich eine Art computergestützten Agenten zur Durchführung von Routineaufgaben eingesetzt haben.“

Mit dem Aufkommen intelligenter Lautsprecher wie Alexa ist es üblicher geworden, dass Menschen mit Geräten sprechen.

„Die Leute regen sich immer auf, wenn ihre Taschen verloren gehen, und die menschlichen Kunden, mit denen sie zu tun haben, sind immer gestresst von all dieser Negativität, also sagten sie, lass es uns einem Computer geben“, sagte Khodanpour. Sie können auf dem Computer schreien, was Sie wollen, alles, was Sie wissen wollen, ist: „Haben Sie Ihre Kartennummer, damit ich Ihnen sagen kann, wo Ihre Tasche ist? „

2008 startete beispielsweise Alaska Airlines Jane, eine digitale Assistentin, die Reisenden hilft. Als Zeichen unserer Tendenz, diese Werkzeuge zu humanisieren, vorzeitige Überprüfung Über den Service in der New York Times sagte er: „Jane ist nicht nervig. Sie wird auf der Website als junge Brünette mit einem sanften Lächeln dargestellt. Ihre Stimme hat einen angemessenen Tonfall. Schreiben Sie eine Frage, und sie antwortet klug. Unweigerlich sollten sie Machen Sie einen Ausflug mit ihr, sagen wir, eine ungeschickte Bar-Rufnummer, und schlagen Sie höflich vor, wieder an die Arbeit zu gehen.

Zurück zu sozialen Chats und sozialen Problemen

In den frühen 2000er Jahren begannen Forscher, die Entwicklung sozialer Chatbots zu überdenken, die eine längere Konversation mit Menschen führen könnten. Diese Chatbots, die oft mit großen Datenmengen aus dem Internet trainiert wurden, haben gelernt, sehr gute Simulationen der menschlichen Sprache zu sein – aber sie riskieren auch, einige der schlimmsten des Internets wiederzugeben.

2015 zum Beispiel das öffentliche Experiment von Microsoft mit einem KI-Chatbot namens Tay zertrümmert und verbrannt In weniger als 24 Stunden. Tay sollte wie ein Teenager sprechen, aber er fing bald an, rassistische und hasserfüllte Kommentare zu machen, bis zu dem Punkt, an dem Microsoft ihn schloss. (Das Unternehmen sagte, es gebe auch eine koordinierte Anstrengung von Menschen, Tay dazu zu bringen, einige beleidigende Kommentare abzugeben.)

„Je mehr Sie mit Tay sprechen, desto klüger werden Sie, sodass die Erfahrung für Sie persönlicher werden kann“, sagte Microsoft damals.

Siehe auch  Samsung bietet ein kostenloses Galaxy Z Flip 4-Upgrade und einen sofortigen Rabatt von 100 $

Diese Refrains werden von anderen Tech-Giganten wiederholt, die öffentliche Chatbots veröffentlicht haben, einschließlich Meta BlenderBot3, der Anfang dieses Monats veröffentlicht wurde. Der Meta-Chatbot hat fälschlicherweise behauptet, Donald Trump sei immer noch Präsident, und es gebe „sicherlich viele Beweise“ für Wahldiebstahl, neben anderen kontroversen Äußerungen.

BlenderBot3 behauptete auch, mehr als nur ein Bot zu sein.

Der neue Chatbot von Meta, BlenderBot3, erklärt dem Benutzer, warum er eigentlich menschlich ist.  Es dauerte jedoch nicht lange, bis der Chatbot mit aufrührerischen Bemerkungen für Kontroversen sorgte.

Trotz all der Fortschritte, die seit Elisa gemacht wurden, und der riesigen Mengen an neuen Daten, um diese Sprachverarbeitungsprogramme zu trainieren, sagte Marcus, Professor der New York University: „Mir ist nicht klar, dass man wirklich einen zuverlässigen und sicheren Chatbot bauen kann. „

Martyrium 2015 Facebook-Projekt mit dem Spitznamen „M“ Ein robotischer persönlicher Assistent sollte die Textantwort des Unternehmens für Dienste wie Siri und Alexa sein „Die Idee war, dass es dieser universelle Assistent sein würde, der Ihnen helfen würde, ein romantisches Abendessen zu bestellen, Musiker für Sie spielen und Blumen liefern zu lassen – weit entfernt von dem, was Siri tun könnte“, sagte Marcus. Stattdessen wurde der Dienst 2018 nach einer enttäuschenden Zeit eingestellt.

Auf der anderen Seite bleibt Khodanpur hinsichtlich seiner potenziellen Anwendungsfälle optimistisch. „Ich habe diese ganze Ansicht darüber, wie KI Menschen auf individueller Ebene stärken kann“, sagte er. „Stellen Sie sich vor, wenn mein Roboter alle wissenschaftlichen Artikel auf meinem Gebiet lesen könnte, müsste ich sie nicht alle lesen, ich würde einfach nachdenken, Fragen stellen und einen Dialog führen“, sagte er. „Mit anderen Worten, ich werde eine alternative Psyche haben, die über integrierte Superkräfte verfügt.“