ChatGPT Anti-Fake-Industrie: Nutzen, Missbrauch und Antidot

 In Know-How

WIE DIE ANTI-FAKE-INDUSTRIE ENTSTEHT

Beim Eröffnungsinterview der bayerischen Vertriebstage hat mich der Initiator @Uwe Rieder gefragt, wie man sich vor Fake-News schützen kann. Nur um das klarzustellen: Uwe ist selbst ein begeisterter User von ChatGPT und er stellt auch selbst KI-Tools in seiner Vertriebsfreak-Akademie vor. Natürlich sieht er aber auch das Risiko, dass neue Technologien von zwielichtigen Intelligenzen (Mensch und/oder KI) missbraucht werden können.

YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

TYPISCHE ANZEICHEN

Und tatsächlich können wir bereits die typischen Ausprägungen beobachten, die immer dann auftauchen, wenn eine neue Technologie zur Verfügung steht. Im Fall von ChatGPT sehen wir,

1. dass viele Personen die neue Technologie testen (Zeit investieren) und dafür einsetzen möchten, Zeit bei der Erstellung von Content – hauptsächlich für Texte und Computer-Code – einzusparen. Während im wirtschaftlichen Einsatz die Einsparung von Zeit = Geld prinzipiell begrüßt wird, sieht man im schulischen und universitären Umfeld die Gefahr, dass Grundlagenwissen nicht mehr geprüft werden kann.

(Natürlich herrscht bei Angestellten und Dienstleistern auch die Angst, dass Arbeitsplätze und Aufträge verloren gehen. Das ist noch einmal eine andere Diskussion, der ich mich in den kommenden Wochen widmen werde.)

2. dass die schnelle und einfache Erstellung von Texten zum Beispiel dafür ausgenutzt wird, Content-Farmen zu errichten. Content Farmen sind Websites, die große Mengen von qualitativ minderwertigen, oft um- oder abgeschriebenen Inhalten veröffentlichen. Die Betreiber verfolgen das Ziel, auf diese Weise so viel Suchmaschinen-Traffic wie möglich auf die Website zu leiten. Content-Farmen generieren ihre Einnahmen über Werbeanzeigen auf ihren Websites. Ihre Gewinne maximieren sie, indem sie durch KI-erstellte Texte ständig neuen Content produzieren.

(Lesenswert ist hier auch der aktuelle Artikel von @Roland Eisenbrand „Mehr als 200 neue Schrott-Websites: Kommen jetzt die AI Content Farmen?“ Ein Summary finden Sie am Ende des Beitrags oder komplett unter https://omr.com/de/daily/ai-content-farmen/)

3. dass auch die technologische Gegenoffensive im Kleinen gegen den Missbrauch von ChatGPT bereits gestartet ist – bis hin zu so hehren Zielen wie einer europäischen Regulierung.

(Mehr lesen Sie unter „Erste Lösungsansätze gegen den Missbrauch“.)

Nutzen, Missbrauch und Antidot sind die untrügerischen Anzeichen dafür, dass eine Industrie entsteht. Es bilden sich parallel eine KI-Wirtschaft und eine Anti-Fake-Wirtschaft – die beide voneinander profitieren.

 

EIN KURZER BLICK ZURÜCK

Das typische Auftreten von Nutzen, Missbrauch und Antidot einer Technologie können wir sehr schön an der Entwicklung der Software-Industrie nachzeichnen. Mit dem Angebot von Anwendungssoftware für Computer betrat Anfang der 1970er Jahre auch die erste Schadsoftware „Creeper“ die Bühne. Zwar noch deutlich zeitverzögert – aber Unternehmen wie G DATA Software, McAfee und Kaspersky haben dann Viren-Scanner auf den Markt gebracht. Die lukrative Parallel-Wirtschaft der Anti-Viren-Software war geboren. Jeder muss heute für den Schutz von Netzwerken, Computer und Smartphones in die Tasche greifen.

 

ERSTE LÖSUNGSANSÄTZE GEGEN DEN MISSBRAUCH

– Im universitären Umfeld erkennt „GPTZero“ Texte, die von ChatGPT geschrieben wurden. Der Informatikstudent @Edward Tian hat eine App entwickelt, die durch ChatGPT generierte Beiträge von Texten unterscheiden kann, die durch Menschen geschrieben wurden. Mehr lesen Sie auch im Blogbeitrag „GPTZero – What’s new?“

– Das Unternehmen Newsguard ist quasi das Antidot gegen die AI Content Farmen. Es bewertet zum Beispiel die Vertrauenswürdigkeit von Nachrichtenseiten im Netz. Damit können Unternehmen es zunächst einmal feststellen, wenn ihre Werbung in nicht vertrauenswürdigen Umfeldern ausgespielt wird.

– Das US-Unternehmen OpenAI – Entwickler von ChatGPT – will zukünftig 20 Prozent ihrer Rechenkapazität dafür einsetzen, ein System zu entwickeln, dass KI beaufsichtigen kann.

– Das Heidelberger KI-Unternehmen Aleph Alpha hat im April 2023 den Algorithmus AtMan eingeführt. AtMan ermöglicht es, die Entscheidungswege einer KI besser nachzuvollziehen. (Ein häufiger Kritikpunkt an KI ist, dass man nicht nachvollziehen kann, wie eine Entscheidung gefällt wurde. Menschen entscheiden übrigens erst und suchen dann nach plausiblen Kriterien, die unsere Entscheidung unterstützen. 🙃)

– Mit dem Artificial Intelligence Act (AI-Act) hat die EU-Kommission im Rahmen der EU-Digitalstrategie ein Gesetz über Künstliche Intelligenz auf den Weg gebracht, das inzwischen von EU-Parlament und EU-Rat kommentiert ist (Juni 2023). Nun beginnt der sogenannte Trilog zwischen den drei Beteiligten. Der Entwurf enthält konkrete Vorschläge zur Regelung im Umgang mit Künstlicher Intelligenz in Forschung und Wirtschaft. In Kraft treten wird der AI-Act der EU aber erst nach Abschluss der Trilog-Beratungen und nach den gängigen Übergangsfristen. Das heißt: vielleicht 2026. 😯

 

MEIN FAZIT

Diese Lösungsansätze sind erst der Beginn einer lukrativen Parallelwirtschaft – der Anti-Fake-Branche. Unternehmen werden zukünftig sowohl für die Nutzung von KI zu bezahlen haben als auch dafür, sich vor Fake zu schützen.

ChatGPT

ChatGPT gehört zur Kategorie der Generativen KI. Dazu zählen alle Systeme und Tools, die mithilfe Künstlicher Intelligenz automatisiert Content erstellen. Diese Inhalte können zum Beispiel Texte, Bilder, Audio oder Video sein.

 

Das, was Systemen wie ChatGPT, YouChat, OpenAssistent oder Google Bard ihre herausragende Position verleiht, ist die Kombination von zwei KI-Lösungen. Zum einen ist da die Generative KI, die Contents erstellen kann. Und zum anderen – dies ist entscheidend – können Nutzer über eine Conversational AI in normaler Sprache mit der Generativen KI interagieren. Die Hemmschwelle für Nutzer, mit einer Maschine zu kommunizieren, ist so um ein Vielfaches gesenkt. Denn die Maschine wirkt menschlich und sie versteht normale Sprache.

SUMMARY AI CONTENT FARMEN

Zurzeit entstehen wieder große Content Farmen: unseriöse News-Websites, die nur aus KI-generierten News bestehen. Unternehmen, die ihre Online-Werbung auf vertrauenswürdigen Nachrichtenseiten platzieren wollen, werden hier abgeschöpft. In der Regel erfolgt eine solche Werbeeinschaltung programmatisch. Das heißt, sie erfolgt im Rahmen von automatisierten Echtzeitauktionen – in Millisekunden. Sobald ein Nutzer mit einem relevanten Profil auf die Website klickt, wird Unternehmen die mögliche Werbeschaltung zum Kauf angeboten. Die Werbung des Höchstbietenden wird dann dem User angezeigt. Eine Werbeeinblendung in einem unseriösen Umfeld, kann für ein Unternehmen dann sogar eine nachteilige Wirkung entfalten.

GRUSSWORT VON UWE RIEDER

Liebe Gabriele, der Funke Deiner Begeisterung, Deine Kommunikations- und KI-Expertise ist auf alle Teilnehmer übergesprungen. Und hat so „Die bayerischen Vertriebstage“ wieder zu einem absoluten Highlight gemacht. Danke, dass Du Dir die Zeit genommen hast, Dein Wissen hier zu teilen. Es war mir eine absolute Ehre, Dich dabei zu haben.

AUTORIN

Gabriele Horcher ist Botschafterin für die Zukunft der Kommunikation. Sie ist Kommunikations-Strategin, Keynote Speaker, Bestseller-Autorin und fungiert als Sparringspartner für die Transformation von Kommunikation.