Marketing war schon immer in zwei Disziplinen unterteilt: Kreative, die mit überlegenen Slogans und Bildern Menschen zum Kauf von Produkten oder Dienstleistungen bewegen, und datengetriebene, die jede Interaktion mit einer Anzeige verfolgen und versuchen, den Erfolg rein datengetriebener Kampagnen zu verbessern. Mit der zunehmenden Nutzung des Internets und neuerdings auch von Smartphones und Wearables ist die Menge an Daten, die zur Optimierung von Kampagnen und Werbezielen zur Verfügung stehen, drastisch gestiegen. Es wird erwartet, dass das globale Datenvolumen im Jahr 2023 zum ersten Mal 100 Zetabyte übersteigt. In dieser Menge an strukturierten und unstrukturierten Daten sind wertvolle Informationen über die Vorlieben, die Geschichte und die Auslöser von Millionen von Kunden versteckt, die ein Mensch nicht mehr verstehen und in handlungsorientierte Aktionen umsetzen kann. Dies macht den Einsatz von künstlicher Intelligenz erforderlich.
KI BERATUNG VON MF ROCKET
Eine valide KI-Strategie generiert heute schon konkrete Business-Mehrwerte. Mit der KI-Beratung von MF Rocket Künstliche Intelligenz jetzt optimal nutzen!In diesem Teil
Targeting mit KI
Der heilige Gral des Marketings ist das Targeting, also die gezielte Ansprache eines Nutzers mit Werbeinhalten, innerhalb der vielzitierten Parameter, zur richtigen Zeit, mit dem richtigen Angebot. In der Vergangenheit wurden verschiedene statistische Methoden eingesetzt, um dieses Problem anzugehen. Die Verbreitung von relativ neuen Nutzerinteraktionspunkten, die hier eine digitale Spur hinterlassen, eröffnet neue Wege der gezielten Nutzeransprache durch maschinelles Lernen und künstliche Intelligenz.
Die Datenmenge, die selbst ein kleiner Onlineshop über verschiedene Marketingkanäle produziert, steigt rapide an und erreicht schnell ein Volumen, das der Mensch in einer endlichen Zeit nicht mehr analysieren kann. Außerdem gibt es oft ein Ziel, das über digitale Kommunikationskanäle gemessen werden kann, sei es ein Kauf in einem Online-Shop, ein Telefonanruf, ein Download oder das Schreiben einer E-Mail. Damit steht das gesamte Repertoire des überwachten Lernens zur Verfügung, um Marketingmaßnahmen im Rahmen des maschinellen Lernens zu optimieren und zu automatisieren.
Das New Yorker Start-up Albert hat es sich zum Ziel gesetzt, digitale Kampagnen nicht nur zu optimieren, sondern auch vollständig zu automatisieren. Um dies zu erreichen, analysiert die künstliche Intelligenz frühere Online-Marketing-Aktivitäten, wie z. B. bezahlte Suchkampagnen auf Google, Facebook oder Bing, bis hin zu einzelnen Kampagnen, Anzeigengruppen und Motiven. Albert wendet die gewonnenen Erkenntnisse in Verbindung mit einem definierten Ziel an, z. B. der Senkung der Akquisitionskosten, und führt eine Reihe von statistisch validen Tests durch, um die optimale Verteilung der Budgets auf die einzelnen Kanäle, Kampagnen und Anzeigengruppen zu ermitteln.
Albert zeigt in einer Fallstudie, die in Zusammenarbeit mit dem Modelabel Natori durchgeführt wurde, dramatische Leistungsverbesserungen auf. Natori ist seit 1977 ein Damenmodelabel in den Vereinigten Staaten. Im Zuge der Digitalisierung stellten sie fest, dass junge, agile Unternehmen online mehr Aufmerksamkeit erregten und Natori die Stammkunden wegnahmen. Natori hatte keine eigene Online-Marketing-Expertise und verließ sich ausschließlich auf das Teilen von Pressemitteilungen auf Social-Media-Profilen. Auch die klassische Printwerbung war immer durch den Wunsch eingeschränkt, so künstlerisch wertvoll wie möglich zu sein.
Albert wurde eingesetzt, um neue Kunden auf Facebook und Instagram anzusprechen. Nach der Ermittlung von KPIs und der Entwicklung einer Reihe von Werbemitteln begann die künstliche Intelligenz, das Nutzerverhalten zu testen und die Kampagnen zu optimieren. Dies führte zu einer 84-prozentigen Steigerung der Verkäufe in den sozialen Medien und einer 18-prozentigen Steigerung der Rendite der Werbeausgaben innerhalb von sechs Monaten. Angesichts der Ausgangssituation sollten diese Zahlen kritisch hinterfragt werden. Faszinierend ist, dass Albert errechnete, dass Natori, um die besten Ergebnisse zu erzielen, auf so genannte Karussellanzeigen setzen sollte. Eine neue Art von Werbemittel für das Unternehmen. Albert erstellte und testete diese mit verschiedenen Texten in Kombination, und die Online-Konversionen des Modelabels stiegen innerhalb eines Monats um 24 Prozent .
Es überrascht nicht, dass auch die großen Akteure der Online-Werbung, allen voran Google und Facebook, die Entwicklung der künstlichen Intelligenz vorangetrieben haben und ihre eigenen Frameworks veröffentlicht haben: Google mit TensorFlow und Facebook mit Torch.
Die Haupteinnahmequelle für beide Unternehmen ist eine riesige Datenbank, Rechenleistung und Werbung.
Beide Unternehmen sind darauf angewiesen, dass die Werbetreibenden möglichst effektive Anzeigen schalten und so ihre Werbeausgaben im jeweiligen Netzwerk erhöhen. Es ist daher keine Überraschung, dass Google und Facebook den Werbetreibenden die grundlegendsten Tools für maschinelles Lernen zur Verfügung stellen, um ihre Kampagnen zu verbessern – selbst wenn das werbende Unternehmen selbst nicht über das Wissen oder die Kapazitäten dazu verfügt.
Oder, wie Google bei der Vorstellung seiner Tools im Jahr 2018 erklärte, erwarten die Nutzer/innen personalisierte, relevante Werbung in großem Umfang.
Responsive Search Ads funktionieren nach demselben Prinzip wie Albert. Der Werbetreibende stellt 15 Überschriften und vier Anzeigentexte zur Verfügung, und das System testet automatisch die vielversprechendsten Kombinationen und berücksichtigt dabei auch externe Parameter, wie z. B. die spezifische Suchanfrage eines Nutzers. Nach Angaben von Google führt dieses System zu einer Steigerung der Anzeigenklicks um 15 %.
Ähnliche Systeme werden für Google Shopping-Kampagnen verwendet, mit dem Unterschied, dass der Nutzer festlegen kann, ob die Produktanzeigen nur den Verkauf fördern sollen oder ob sich die Kampagne auch darauf konzentrieren soll, neue Nutzer zu erreichen oder ein Geschäft zu besuchen.
Ein oft zitierter Aphorismus beim Vergleich der beiden Unternehmen lautet: “Google weiß, wonach wir suchen, Facebook weiß, was wir denken.”
Wenn es darum geht, die Anzeigenschaltung zu individualisieren oder den Newsfeed einer Person zu kuratieren, setzt Facebook natürlich ähnliche maschinelle Lerntechniken ein wie Google. Da zu Facebook aber auch andere Unternehmen wie WhatsApp, Instagram und Oculus gehören, hat Facebook ganz andere Möglichkeiten, künstliche Intelligenz zu nutzen.
Obwohl er nicht von Facebook initiiert wurde, hat der Cambridge Analytica-Skandal vielen Menschen vor Augen geführt, wie leistungsfähig die Analysemöglichkeiten von Social Media-Inhalten sein können, bis hin zur Erstellung von Persönlichkeitsprofilen und der Vorhersage von Wahlpräferenzen.
Ein Beispiel aus dem nicht-kommerziellen Angebot von Facebook zeigt die Vorhersagekraft, die Facebook-Daten bieten können.
Facebook nutzt zum Beispiel die Möglichkeiten der künstlichen Intelligenz und seinen Datenreichtum, um unter anderem vorherzusagen, ob ein Nutzer selbstmordgefährdet ist. Selbstmord ist die häufigste Todesursache bei den 15-29-Jährigen weltweit. Laut Statistik ereignet sich alle 40 Sekunden ein Selbstmord, davon 45.000 pro Jahr in den Vereinigten Staaten.
Bis 2016 konnten Nutzer/innen die Beiträge anderer Personen als mögliches Anzeichen für Selbstverletzung oder Selbstmord kennzeichnen, woraufhin ein/e Facebook-Mitarbeiter/in den Beitrag überprüfte und gegebenenfalls weitere Maßnahmen ergriff.
Die automatisierten Analysefunktionen von Facebook haben sich seither erheblich weiterentwickelt. Angefangen bei Bag-of-Words- oder N-Gram-Ansätzen in der logistischen Regression über Random-Forest-Algorithmen bis hin zur aktuellen Iterationsstufe, die auf der Facebook-eigenen Natural Language Engine Deeptext basiert, prüft dieses neuronale Netzwerk automatisch jeden Beitrag und alle dazugehörigen Kommentare und markiert sie entsprechend für die Überprüfung durch einen menschlichen Moderator, wenn es Hinweise auf Selbstmord gibt.
Facebook hat im Rahmen der Entwicklung von DeepText bidirektionale rekurrente neuronale Netze entwickelt, um Text in Verbindung mit Bildern oder Videos besser verarbeiten zu können, die auf Worteinbettungen beruhen. BRNNs können so auf Zustände in Schichten zugreifen, die zeitlich vor oder hinter der aktuellen Schicht liegen.
Wenn dieses System ein Posting als Hinweis auf einen Selbstmord einstuft und der Moderator zustimmt, wird der Fall an ein speziell geschultes Expertenteam aus den Bereichen Psychiatrie, Strafverfolgung und Medizin weitergeleitet. Je nachdem, wie dieses Expertenteam die Nachricht bewertet, kannst du dem Nutzer in der Facebook-App oder auf der Website Hilfsangebote anzeigen oder in schwerwiegenderen Fällen Polizei und Feuerwehr über den Nutzer informieren und den Ersthelfern persönliche Informationen zur Verfügung stellen. In einem Blogbeitrag Ende 2018 erklärte Facebook-Gründer Mark Zuckerberg, dass diese letzte Eskalationsstufe der direkten Intervention weltweit 3500 Mal pro Jahr genutzt wird . Es heißt, dass suizidgefährdete Menschen sehr davon profitieren, wenn sie einfach auf Hilfsangebote hingewiesen werden.
Seit der Einführung der Datenschutzgrundverordnung DSGVO in Deutschland und der Europäischen Union ist es nicht mehr möglich, Nachrichten auf Suizidabsichten zu überprüfen.
Ein Dokument, das dem Online-Magazin The Intercept zugespielt wurde, zeigt, dass es möglich ist, Verhalten auf der Grundlage von Social-Media-Daten vorherzusagen. The Intercept hat es sich seit den Leaks von Edward Snowden zur Aufgabe gemacht, ausführlich über politische, soziale und technische Nachrichten zu berichten.
Das Magazin berichtet über ein internes Facebook-Tool namens FBLearner Flow, das Facebook im Jahr 2016 als Randnotiz eingeführt hat. Im Jahr 2016 wurde FBLearner Flow als ein Tool beschrieben, mit dem relevantere Werbeanzeigen geschaltet werden können. Laut The Intercept geht FBLearner Flow jedoch über die Ausrichtung von Anzeigen auf der Grundlage bekannter demografischer Daten oder angeklickter Likes hinaus. FBLearner Flow kann das zukünftige Nutzerverhalten anhand der vollständigen Nutzerprofile von Facebook vorhersagen, die auf 29.000 verschiedenen Datenpunkten basieren. So können Werbetreibende angeben, dass sie Nutzer/innen erreichen wollen, die im Begriff sind, die Produktmarke zu wechseln. Es wird ein Loyalitätsindex berechnet, der Rückschlüsse auf die Wechselbereitschaft aufgrund von Veränderungen in den Lebensumständen des einzelnen Nutzers zulässt und nicht aufgrund der Tatsache, dass der Nutzer Veröffentlichungen eines Wettbewerbers gelesen hat.
FBLearner Flow, das als Rückgrat von Facebook bezeichnet wird, ist ein Framework, das wie andere AutoML-Produkte einen Großteil der manuellen Arbeit bei der Erstellung von Vorhersagen durch maschinelles Lernen automatisiert, z. B. die Feinabstimmung und die Auswahl der Merkmale. Außerdem ermöglicht das Tool die Wiederverwendung von Algorithmen, die ursprünglich für andere Zwecke entwickelt wurden. Als Facebook FBLearner Flow zum ersten Mal erwähnte, nutzten es bereits 25 % der Facebook-Entwickler/innen, obwohl sie keine Erfahrung mit maschinellem Lernen hatten. In den zwei Jahren vor der Veröffentlichung wurden mehr als eine Million Modelle trainiert, so dass Facebook mehr als 6 Millionen Vorhersagen pro Sekunde machen konnte.
Erstellung von Inhalten mit KI
Im Marketingumfeld kann künstliche Intelligenz Aufgaben wie Datenanalyse, Profiling und datengestützte Vorhersagen übernehmen. Die treibende Kraft hinter Empfehlungssystemen, dynamischer Preisgestaltung und Targeting-Anwendungen sind Deep-Learning-Netzwerke und Machine-Learning-Anwendungen. Wenn es um den Einsatz von maschinellem Lernen im Marketing geht, denkt wahrscheinlich niemand an die Arbeit der Kreativen, das Verfassen einer passenden Werbebotschaft oder das Erstellen von Bildern für eine Werbekampagne.
Online-Händler, vor allem solche, die variantenreiche Produkte verkaufen, stehen vor der Herausforderung, eine große Anzahl von Produktvarianten, manchmal auch in Kombination, darzustellen, damit sich die Kunden ein vollständiges Bild machen können.
Das ist besonders in der Modebranche zu beobachten. Die Nutzer/innen wollen verschiedene Kombinationen von Oberteilen, Hosen, Schuhen und Accessoires an Models mit unterschiedlichen Körperformen und -größen sehen – es wäre eine Mammutaufgabe, jede mögliche Kombination im Bild festzuhalten.
Zalando, ein Online-Modehändler, hat sich dieses Problems angenommen und ein System entwickelt, das auf StyleGAN basiert. In einem Wettbewerb zwischen zwei Netzwerken erzeugen Generative Adversarial Networks immer bessere Bilder. Das erste Netzwerk versucht, Bilder zu erzeugen, die so authentisch wie möglich erscheinen, während das zweite Netzwerk versucht, die erzeugten Bilder von den Originalen zu unterscheiden.
Zalando Research hat zwei Netzwerke mit einem Datensatz trainiert, der 380.000 Fotos von Models in einer bestimmten Körperhaltung sowie sechs Kleidungsstücke/Accessoires enthielt. Das erste Netzwerk wurde so trainiert, dass es Kleidungsfarbe und Körperhaltung von einem Modell auf das nächste überträgt. Die endgültigen Bilder werden durch das zweite Netzwerk erzeugt. Die Kleidungsstücke und die Körperhaltung werden in das Netz eingespeist, das dann die gewünschten Bilder erzeugt . StyleGAN kann auf eine Vielzahl von Produkten angewendet werden, die aufgrund einer großen Anzahl von Varianten kombinatorische Herausforderungen darstellen, aber auch in anderen Bereichen des Marketings, in denen verschiedene Bildkompositionen getestet werden sollen.
In anderen Bereichen, z. B. beim Rapid Prototyping neuer Modedesigns, setzt Zalando Generative Adversarial Networks ein.
Farbe, Stoffbeschaffenheit und Form können als Eingangsmerkmale verwendet werden, um Bilder des fertigen Kleidungsstücks zu generieren, damit Designer/innen schnell sehen können, wie verschiedene Kombinationen aussehen könnten.
KI BERATUNG VON MF ROCKET
Eine valide KI-Strategie generiert heute schon konkrete Business-Mehrwerte. Mit der KI-Beratung von MF Rocket Künstliche Intelligenz jetzt optimal nutzen!In diesem Teil
Texterstellung mit KI
Seit vielen Jahren ist Content Marketing die bevorzugte Werbemethode in vielen Unternehmen. Inhalte, die weiterbilden, beraten oder einfach nur unterhalten sollen. Content Marketing enthält im Gegensatz zu traditionellen Werbeinhalten keine direkte Werbebotschaft. Content Marketing zielt darauf ab, das Markenbewusstsein und die Markenwahrnehmung durch nicht-kommerzielle Inhalte zu erhöhen, und trägt somit erst in zweiter Linie zu Umsatzsteigerung und Mehrwert bei.
Content Marketing erfordert wie andere Formen von Marketing- und Werbemitteln eine große Anzahl von Texten und Inhalten, die traditionell von Menschen geschrieben werden.
Seit einiger Zeit sind Forscher/innen und Entwickler/innen damit beschäftigt, neuronalen Netzen beizubringen, Texte zu erstellen, und zwar mit einigen kuriosen stilistischen Schnörkeln. Vor fünf Jahren wurde zum Beispiel ein rekurrentes neuronales Netzwerk vorgestellt, das Kurzgeschichten zu Bildern erfand. Das Netzwerk “Neural Storyteller” wurde mit 14 Millionen Absätzen aus Liebesromanen und Songtexten von Taylor Swift trainiert, um entsprechende Beschreibungen zu erzeugen.
Zum Beispiel generierte das neuronale Netzwerk die folgende Passage als Antwort auf ein Foto von zwei Sumo-Ringern inmitten eines Kampfes: Im Hinterkopf war er ein Mann ohne Hemd, und ich fluchte, als er sich vorbeugte, um mich auf die Schulter zu küssen. Er wollte mich erwürgen, weil ich mich in den schönen Jungen verwandelt hatte, während er seine Boxershorts trug.
Das ist zwar unterhaltsam, aber für ernsthafte Anwendungen ist es unbrauchbar.
2019 stellte Facebook Research ein neues Modell für die Generierung von Geschichten vor . Es basiert auf dem Reddit WritingPrompts Forum. Die Nutzer/innen posten einen “Prompt”, der aus einem oder mehreren Wörtern bestehen kann, und andere Nutzer/innen versuchen, auf der Grundlage des Prompts eine Geschichte zu schreiben und sie als Kommentar zu posten.
Verschiedene Netzwerkarchitekturen wie CNN und RNN haben gezeigt, dass sie kurze Textsequenzen erzeugen können, aber bei längeren Passagen den Fokus verlieren. Zu diesem Zweck führt Facebook eine neue Architektur namens “Fusion Models” ein, bei der ein neuronales Netzwerk lernt, was ein zweites nicht kann.
Im Vergleich zum Neural Storyteller sind die Ergebnisse viel glatter und menschenähnlicher. Anhand der Aufforderung “Aliens entführen Menschen” produzierte das Netzwerk die folgende Kurzgeschichte: “Es ist zwei Wochen her, und der letzte meiner Art ist verschwunden.” Es ist nur eine Frage der Zeit, bis es nichts mehr gibt. Ich habe keine Ahnung, was hier los ist… Ich bin unfähig zu denken. Ich höre einen Schrei aus der Ferne. Ich höre ein seltsames, fremdes Geräusch. Ich versuche zu sprechen, aber ich werde von etwas unterbrochen, das sich wie eine Trommel anfühlt, aber ich bin mir nicht sicher, was es ist. Ich meine, ich bin nur ein paar Jahre älter als der Durchschnittsmensch. Aber ich kann die Schwingungen hören und fühlen. Ein Schiff nähert sich, und ich kann es hören. Der Boden zittert durch die Wucht des Aufpralls und eine laute Explosion durchbricht die Stille.”
Das GPT-2-Modell von OpenAI (https://github.com/openai/gpt-2) hat internationales Interesse geweckt, auch außerhalb der technischen Gemeinschaft. OpenAI hat es sich zum Ziel gesetzt, künstliche Intelligenz zu demokratisieren und gleichzeitig auf die Gefahren ihrer unregulierten Nutzung hinzuweisen. Sie ist irgendwo zwischen einem Startup und einer NGO angesiedelt. Mit dem OpenAI Gym hat OpenAI eine Plattform geschaffen, auf der Nutzer/innen ihre eigenen auf maschinellem Lernen basierenden Anwendungen mithilfe von Videospielen trainieren können. Als die künstliche Intelligenz OpenAI five im Jahr 2019 das Weltmeisterteam im kooperativen Multiplayer-Spiel Dota-2 besiegte, erzielten die Entwickler von OpenAI einen mehr als respektablen Erfolg.
Nachdem sie u.a. eine Millioneninvestition von Microsoft angenommen haben, ist OpenAI alles andere als unumstritten. Sowohl der ursprüngliche Mitbegründer Elon Musk als auch angesehene Institutionen wie MIT Technology Review üben scharfe Kritik an OpenAI und vermuten entweder eine politische Agenda hinter der Veröffentlichung bestimmter Forschungsergebnisse oder dass das Unternehmen versucht, sich durch Transparenz und das Teilen von Forschungsergebnissen einen wirtschaftlichen Vorteil zu verschaffen.
Daher sollte man den Behauptungen von OpenAI über ihr Transformatormodell GPT-2 mit Vorsicht begegnen. OpenAI hat GPT-2 als das effektivste System für eine breite Palette von Aufgaben der natürlichen Sprachverarbeitung vorgestellt. Tatsächlich ist es so gut, dass eine Veröffentlichung des Modells zu riskant wäre.
Stattdessen wurde eine stufenweise Veröffentlichung gewählt: zuerst kleine Modelle mit wenigen Parametern, dann mittlere und schließlich das endgültige Modell, das von einem System zur Erkennung von mit GPT-2 erstellten Texten begleitet wurde.
OpenAI ist vergleichbar mit einem BERT a Transformer-Modell, das auf 40 GB Internettext trainiert wurde. Die Daten, die OpenAI verwendet, wurden auf indirekte Weise kuratiert. Um in den Datensatz aufgenommen zu werden, mussten die Texte mindestens 3 Karma auf der Reddit-Plattform erhalten haben (analog zu Facebook-Likes).
In der anfänglichen Ankündigung hieß es, dass die von GPT-2 produzierten Texte nicht von denen zu unterscheiden sind, die von Menschen geschrieben wurden, und es wurden auch Beispiele angeführt, in denen das Modell aus einem Zweizeiler einen seitenlangen zusammenhängenden Text produziert. Die zugrundeliegende Methode basiert darauf, das Modell so zu trainieren, dass es das nächste Wort in einer Sequenz vorhersagen kann, wobei alle vorherigen Wörter berücksichtigt werden.
Im Prinzip ist die Qualität des Modells unbestritten. Die Cornell University hat die generierten Texte verglichen und dem Modell mit 1,5 Milliarden Parametern einen Glaubwürdigkeitswert von 6,91 von 10 möglichen Punkten zugewiesen. Die Glaubwürdigkeitspunkte beschreiben, für wie vertrauenswürdig die Menschen die generierten Texte halten. Das mittlere Modell mit 774 Millionen Parametern erhielt auf der gleichen Skala einen Wert von 6,72, was die Kritik an der Veröffentlichungsstrategie als Publicity-Gag verstärkt. Das kleinste Modell mit 355 Millionen Parametern erhielt einen Wert von 6,07.
Unsere Kollegen vom Center on Terrorism, Extremism, and Counterterrorism (CTEC) des Middlebury Institute of International Studies untersuchten die Modelle auf eine mögliche Nutzung durch Terroristen zur automatischen Generierung von Propaganda. Das CTEC verwendete GTP-2 als Grundlage und trainierte es darauf, Texte aus den Spektren der weißen Vorherrschaft, des Marxismus, des radikalen Dschihadismus und des Anarchismus zu erzeugen.
Laut CTEC war diese synthetische Propaganda glaubwürdig und wurde in der Regel von Menschen geglaubt. Daher ist es beruhigend zu wissen, dass das von OpenAI veröffentlichte Erkennungstool Texte, die mit GPT-2 erstellt wurden, mit einer Genauigkeit von bis zu 95% erkennen kann.
Im Folgenden wird die Beschreibung des aktuellen US-Präsidenten von whitehouse.gov mit einem automatisch erstellten Text verglichen, um zu zeigen, wie glaubwürdig mit GPT-2 erstellte Texte sein können.
Die Einleitung ist in beiden Texten gleich oder diente GPT-2 als Eingabe, um den Rest des Textes zu erstellen.
Einleitung:
Donald J. Trump ist zum 45. Präsidenten der Vereinigten Staaten gewählt worden. Er glaubt, dass die Vereinigten Staaten über ein enormes Potenzial verfügen und dass sie selbst ihre bemerkenswertesten Leistungen in der Vergangenheit noch übertreffen werden.
Variante 1 (von Menschen geschrieben):
Sein Wahlkampfslogan für die Präsidentschaft war “Make America Great Again”, und genau das tut er jetzt. Donald J. Trump ist der Inbegriff der amerikanischen Erfolgsgeschichte. Im Laufe seiner Karriere hat er immer wieder neue Maßstäbe für geschäftlichen und unternehmerischen Erfolg gesetzt, insbesondere in den Bereichen Immobilien, Sport und Unterhaltung. Mr. Trump baute seinen privaten Erfolg aus, als er in die Politik und den öffentlichen Dienst eintrat.
Variante 2 (GPT-2 produziert):
Um Amerikas Größe wiederzuerlangen, müssen wir den Lauf unserer Geschichte ändern. Um dieses Ziel zu erreichen, will Donald J. Trump die historische Agenda für die Erneuerung Amerikas fortsetzen und vorantreiben, eine Agenda, die Amerikas Größe wiederherstellt. Präsident Trump wird dieses Land größer machen, als es jemals war, und große Dinge vollbringen, die ein dauerhaftes Vermächtnis für unser Land hinterlassen werden.
Beide Texte weisen bestimmte Gemeinsamkeiten auf, wie z. B. die Erwähnung des Wahlkampfslogans in der einen oder anderen Form, was interessante Rückschlüsse auf das Trainingsset zulässt, das Mitte bis Ende 2018 erstellt wurde.
Die mit GPT-2 erstellte Variante ist die zweite, die mit keinem anderen Input als dem bereits erwähnten Set erstellt wurde.
Das verwendete Modell ist das GPT-2-Modell mit 774 Millionen Parametern, das nicht weiter trainiert oder feinabgestimmt wurde. Anhand des Beispiels kann man sich leicht vorstellen, welche Ergebnisse möglich sind, wenn auf der Grundlage des Basismodells ein domänenspezifisches Training durchgeführt wird, z. B. mit dem zuvor veröffentlichten Wahlkampfmaterial von Mr. Trump.
Auch wenn Wahlkampf eine Form der Werbung ist, ist es natürlich möglich, GPT-2 durch produkt-, marken- oder branchenspezifische Eingaben auf die jeweilige Branche abzustimmen. Eine einfache Feedbackschleife, die auf den Reaktionen der Nutzer/innen auf synthetisch erzeugte Texte in sozialen Netzwerken basiert, kann zum Beispiel eingerichtet werden.
Open AI hat Ende Mai 2020 GPT-3 , das bisher größte Sprachmodell, vorgestellt. GPT-3 ist das mit Abstand größte Modell mit unglaublichen 175 Milliarden Parametern. Im Vergleich dazu hat das Turing-NLG-Modell von Microsoft, das im Februar 2020 vorgestellt wurde, “nur” 17 Milliarden Parameter.
Die Autorinnen und Autoren zeigen in dem entsprechenden Beitrag, dass große Sprachmodellaufgaben auch ohne explizites Training Spitzenergebnisse erzielen können. Viele Aufgaben können übersprungen werden, wenn das Ausgangsmodell nur groß genug ist.
Die Forscher/innen prägen die Begriffe Few-Shot, One-Shot und Zero-Shot, um die Fähigkeiten von GPT-3 mit anderen Architekturen oder Modellgrößen zu vergleichen.
Few-Shot bezieht sich auf eine Methode, bei der dem Modell eine Textbeschreibung der zu lösenden Aufgabe sowie K Beispiele für die zu lösende Aufgabe gezeigt werden. Das Open AI Team verwendete K-Werte zwischen 10 und 100.
GPT-3 zeichnet sich vor allem beim Verfassen von Texten aus. Um die Fähigkeiten von GPT-3 auf die Probe zu stellen, wurden 25 Artikelüberschriften und Untertitel zufällig aus dem Nachrichtenaggregator newser.com ausgewählt und zu Artikeln vervollständigt.
Die so entstandenen Artikel wurden 80 Probanden gezeigt, die feststellen sollten, ob sie von einem Menschen oder einer Maschine geschrieben worden waren. Nur 52% der Artikel wurden bei diesem Verfahren richtig eingestuft, das waren 2% mehr als beim Raten. Das ist eine bemerkenswerte Leistung angesichts der Bedenken, die in Open AI über die Veröffentlichung von GPT-2 geäußert wurden.
Automatische Texterstellung mit MF Rocket + GPT-3
Mit Lösungen von MF-Rocket erstellst du deine Texte mit GPT-3. Als eine der ersten Agenturen in Deutschland mit unbeschränktem Zugang zu GPT-3 unterstützen wir dich gerne bei der Entwicklung neuer Lösungen.Verbesserung und Korrektur von Inhalten mit KI
Es ist nicht nur schwierig, neue Inhalte zu erstellen, auch die Verbesserung und Verfeinerung bestehender, von Menschen erstellter Inhalte ist ein Ziel der künstlichen Intelligenz.
Grammarly, ein Startup aus San Francisco, hat Deep Learning und Natural Language Processing in einer einzigen Anwendung kombiniert. Grammarly kombiniert Rechtschreib- und Grammatikprüfungen mit höherwertigen Sprachfunktionen wie der Umwandlung von Umgangssprache in Hochsprache, Plagiatsprüfung und Echtzeit-Tonmessung. Die App lässt sich mit allen gängigen Textanwendungen wie Word, Slack und Browsern integrieren.
Grammarly erreicht dies durch die Kombination verschiedener Architekturen, die in anderen Bereichen etabliert sind. Im Bereich der Bildverarbeitung ist StyleTransfer gut beschrieben. Als Eingabe werden zwei Bilder verwendet, z. B. ein Urlaubsschnappschuss und ein Bild von Edvard Munchs “Der Schrei”. Die stilistischen Eigenheiten des Schreis können auf das eigene Foto übertragen werden, so dass es aussieht, als sei es von Munch gemalt worden.
Grammarly versucht etwas Ähnliches, allerdings nur mit den stilistischen Besonderheiten von Sprache. Das vorgestellte System geht an das Problem heran, als wäre es ein Übersetzungsproblem. Es übersetzt von der Umgangssprache in die Hochsprache und nicht vom Englischen ins Deutsche.
Grammarly erreicht dies, indem es phrasenbasierte Übersetzungen mit einem Encoder-Decoder-basierten neuronalen Netzwerk kombiniert. Der ursprüngliche Datensatz umfasste 100.000 zusammenhängende Satzpaare, die in Umgangssprache oder Hochsprache geschrieben waren. Die Datensynthese des phrasenbasierten Modells mit Hin- und Herübersetzungen ergibt einen Datensatz von über einer Million Paaren.
Management in der Kundenerfahrung mit KI
Es ist umstritten, ob das Management der Kundenerfahrung direkt zum Marketing gehört. Dem Nutzer das bestmögliche Erlebnis zu bieten und ihn in einen treuen Kunden zu verwandeln, ist zumindest ein Ziel des Marketings. Dementsprechend werden häufig ähnliche Instrumente wie Webanalysen und personalisierte Adressen eingesetzt.
Andererseits ist es unbestreitbar, dass ein gutes Kundenerlebnismanagement zu höheren Umsätzen führt.
Das Kundenerlebnis, vor allem im Online-Bereich, kann mit maschinellem Lernen direkt gemessen und verbessert werden. Aber auch indirekte Effekte wie eine verbesserte Betrugserkennung tragen zur Verbesserung des Kundenerlebnisses bei. Wenn ein Kreditkartenunternehmen seine Fähigkeit verbessert, betrügerische Transaktionen zu erkennen, schützt es nicht nur seinen Geschäftsbetrieb, sondern verbessert auch das Erlebnis für ehrliche Kunden, indem es es schneller, besser und weniger mühsam macht.
Airbnb ist ein Unternehmen, das sich durch einen persönlichen und umfassenden Kundenservice auszeichnet. Airbnb ist ein Marktplatz, auf dem Menschen ihre Häuser, Wohnungen oder Ferienhäuser an andere Menschen vermieten können. Airbnb behält einen Prozentsatz von jeder Transaktion und will daher so viele teure Vermietungen wie möglich. Die Tatsache, dass die Nutzer/innen in der Lage sein sollten, Unterkünfte zu finden und zu buchen, die ihnen gefallen, und Airbnb daher regelmäßig nutzen, sorgt für Spannungen.
Das Innenleben einer guten Suchmaschine ist zwar nicht so einfach, wie die Allgegenwart von Google und Co. vermuten lässt, aber Airbnb stand vor der Herausforderung, nicht nur eine der größten Suchmaschinen auf eine Nicht-Suchmaschinen-Seite zu verlagern, sondern auch ein geeignetes Ergebnis-Ranking mit einer Reihenfolge zu erstellen, die sowohl wirtschaftliche Interessen als auch die Zufriedenheit der Nutzer/innen vereint.
Gleichzeitig sind viele andere Vorhersagemodelle in die Airbnb-Suchergebnisseite integriert, z. B. die Wahrscheinlichkeit, dass der Gastgeber die Buchung des Kunden akzeptiert, die Wahrscheinlichkeit, dass der Kunde den Aufenthalt genießen wird, und so weiter.
Das Modell, das die Wahrscheinlichkeit berechnet, dass ein Nutzer eine Buchung abschließt, ist dabei das dominierende System auf Airbnb.
Das Ranking, das eine Airbnb-Suche liefert, hat sich drastisch verändert. Zu Beginn der Plattform wurde jedem Suchergebnis manuell ein Relevanzwert zugewiesen. Diese von Menschen kommentierten Daten wurden dann verwendet, um Entscheidungsbäume mit Gradient Boosting zu trainieren. Gradient Boosting wird als Optimierungsalgorithmus für Entscheidungsbäume verwendet, was bedeutet, dass die Bäume in Reihe geschaltet werden, wobei jeder neue Baum versucht, den Fehlerwert des vorherigen zu verringern. Die Erhöhung der Anzahl der neuen Bäume führt nicht zu einer Überanpassung. Die Genauigkeit der Vorhersage stagniert schließlich.
Genau das ist bei Airbnb passiert: Die Vorhersagegenauigkeit stagnierte und wurde nicht besser.
Das endgültige Modell basiert auf einem neuronalen Netzwerk mit zwei versteckten Schichten, das 192 Eingangsmerkmale wie Preis, Ausstattung und Buchungshistorie erhält.
Obwohl die Verbesserungen in der Unternehmensleistung nur relativ angegeben werden, bezeichnet Airbnb die Umstellung auf neuronale Netzwerk-Suchergebnisse als die effektivste Maßnahme, die Airbnb ergriffen hat.
Alle Kapitel im Ratgeber Künstliche Intelligenz

Künstliche Intelligenz in der Sicherheitstechnik
Wenn es um künstliche Intelligenz geht, werden häufig martialische Anspielungen aus der Popkultur verwendet. Ob es nun um Killerroboter geht, die von einer mächtigen künstlichen Intelligenz gesteuert werden, oder um Weltuntergangsszenarien, die von abtrünnigen Computern ausgelöst werden. In Wirklichkeit hat

Künstliche Intelligenz in der Landwirtschaft
Immer erschwinglichere Sensoren, die Drohnentechnologie und der verstärkte Einsatz von IoT-Anwendungen und mobilen Datenübertragungsmöglichkeiten bereiten den Boden für den breiten Einsatz von künstlicher Intelligenz in der Landwirtschaft. KI BERATUNG VON MF ROCKET Eine valide KI-Strategie generiert heute schon konkrete Business-Mehrwerte.