Generative Tools wie Chat-GPT können Kreativität, Produktivität und Effizienz erhöhen, es mehren sich jedoch auch Bedenken hinsichtlich Sicherheit, Authentizität und Ethik. Dabei haben die KI-Tools vor allem ein ganz zentrales Problem.
Generative künstliche Intelligenz bietet die Möglichkeit, ohne große eigene Anstrengung beliebig viele Inhalte zu generieren. "Persönliche" Anschreiben an Kunden oder "individuelle" Produkttexte für den Onlineshop sind damit in Sekundenschnelle erledigt. Nutzt man solche Tools, kann dies enorme Vorteile gegenüber den Konkurrenten bieten.
Wie bei allen neuartigen Erfindungen wurden aber sehr schnell mindestens ebenso viele Techniken entwickelt, diese neuen Chancen zu missbrauchen. Das Spektrum reicht dabei von KI-Tools, die auf Knopfdruck mit hunderten leicht unterschiedlichen Versionen ein und desselben Textes einen viel größeren Umfang einer Website vortäuschen bis zu Angeboten, gleich ganze Websites automatisch zu kopieren, um damit Suchmaschinensichtbarkeit und letztlich Traffic von einem Konkurrenten zu "stehlen". Das Problem der KI liegt aber noch viel tiefer.
Überflutet KI-Spam Google und Social Media?
Die künftig weiter zunehmende Nutzung von KI wird den Anteil an abgeschriebenen, "gestohlenen" und auch falschen Informationen drastisch erhöhen. Eine aktuelle Studie der Uni Leipzig prognostiziert, dass die Google-Suche künftig immer mehr von SEO-Spam beeinträchtigt sein könnte und Nutzer daher immer weniger relevante Inhalte finden werden. Top-Platzierungen werden dadurch ebenfalls schwieriger, da Suchmaschinen zunehmend weniger in der Lage sind, echte und künstliche Inhalte auseinander zu halten, was dazu führt, dass nützliche Informationen in den Suchergebnissen ertränkt werden. Dieses Problem betrifft natürlich nicht nur Google, sondern auch andere Suchmaschinen wie Bing oder DuckDuckGo. Die Forscher warnen bereits davor, dass KI-generierter Spam-Content den Nutzen von Suchmaschinen ernsthaft gefährden könnte.
Gartner Consulting geht davon aus, dass KI in Suchmaschinen den organischen Verkehr deutlich verringern und bis 2025 in sozialen Medien bis zu 50 % weniger Interaktionen wegen der Qualitätsabnahme stattfinden könnten.
"Bio-Content" als Gegenmodell?
Für Unternehmen bedeutet die Zunahme von SEO-Spam in den Suchergebnissen, dass es wichtiger denn je ist, sich auf qualitativ hochwertige und authentische Inhalte zu konzentrieren. Manche Unternehmen werden sich vielleicht überhaupt als "KI-frei", sozusagen "biologisch" positionieren und dies könnte künftig als Qualitätskriterium gelten.
Auch Deep-Fakes immer schwerer erkennbar
Im Bild- und Videobereich wird es aufgrund der zunehmenden Qualität der Tools immer schwerer für Menschen, die Realität von künstlich erzeugten Bildwelten zu unterscheiden. In einer aktuellen Studie konnten nicht einmal zwei Drittel der Teilnehmer erkennen, ob Porträts von Menschen echte Personen oder künstlich erzeugte "digitale Zwillinge" darstellen. In sozialen Medien, wo Bilder oft nur kurz betrachtet werden, bevor weiter gescrollt wird, könnte sich das als besonders problematisch erweisen. In einem KI-Bilderquiz kann man selber ausprobieren, ob man imstande ist den Unterschied zu erkennen.
Das zentrale Problem beim Einsatz von KI-Tools liegt viel tiefer
Aktuelle generative KI-Tools werden eigentlich zu Unrecht als "künstlich intelligent" bezeichnet, denn sie sind beides nicht: weder künstlich, noch intelligent. In Wahrheit sind die heute existierenden Werkzeuge eher als "Machine-Learning"-Modelle (MLM) anzusehen, welche anhand von zahllosen Vorlagen darauf trainiert wurden, Muster und Gemeinsamkeiten in Texten, Bildern usw. zu erkennen und diese Inhalte auf Basis der immanenten statistischen Häufigkeiten und Wahrscheinlichkeiten in nahezu magisch anmutender Geschwindigkeit neu zusammen zu stellen. MLM generieren daher häufig überraschend "echt" wirkende Inhalte ohne wirkliche Originalität, sie reproduzieren vorhandene Informationen, entwickeln aber keine neue Ideen. Dies führt in der großen Masse zu zwangsläufig sich nicht wesentlich unterscheidenden Inhalten. Durch generative KI ist die Erstellung von Content zwar schneller, einfacher und kostengünstiger geworden, aber dies führt modellbedingt nicht unbedingt zu einer Verbesserung der Qualität - insbesondere nicht, wenn zum Training der Modelle aufgrund des immer häufigeren Einsatzes auf allen Ebenen zunehmend bereits von KI-Tools erstellte Inhalte erneut zum Training Verwendung finden ("Daten-Inzest").
Suchmaschinen wie Google bevorzugen aber ausgerechnet Inhalte, die Expertise, Autorität und Originalität zeigen. Da KI-generierte Inhalte oft genau diese Kriterien nicht erfüllen können, könnte es zunehmend schwieriger werden, damit in den Suchergebnissen gut zu ranken. Damit könnte sich sehr bald heraus stellen, dass die in so kurzer Zeit per ChatGPT hergestellten und so wunderbar umfangreichen Produktbeschreibungstexte für den Online-Shop einfach nicht und nicht auf aussichtsreichen Positionen in der Google-Suchergebnisseite performen und keine Besucher anzuziehen imstande sind. Auch in diesem Umfeld könnten "biologisch", also von echten Menschen erzeugte Inhalte, vor einer neuen Rennaisance stehen.
Daneben können auch rechtliche Problemen auftreten, da KI-Modelle Inhalte auf Basis "fremden", möglicherweise geschützten Ausgangsmaterials produzieren und so unwissentlich Plagiate erzeugen können, bei denen derzeit noch unklar ist, wer dann dafür haftet.
Dazu kommen mögliche Datenschutzprobleme durch den unbedachten Einsatz solcher derzeit v.a. für Privatanwender gedachten KI-Lösungen im geschäftlichen Umfeld. Da viele dieser Tools die von den Nutzern übermittelten Daten für das Training ihrer Modelle einsetzen, besteht die reale Gefahr, dass damit sensible oder urheberrechtlich geschützte Daten, Quellcode oder kritische Geschäftsgeheimnisse öffentlich zugänglich werden. Dagegen hilft nur das Vertrauen auf das Versprechen der Hersteller, dass bei den Bezahlversionen der Tools die übermittelten Daten nicht für das Modell-Training verwendet werden (der Hersteller erhält sie natürlich dennoch - und damit potenziell auch die Behörden der Länder, in denen die Hersteller beheimatet sind). Nutzen mehrere Mitarbeiter im Unternhmen so ein Tool, kommt trotz der geringen Monatsgebühren schnell ein erkleckliches Sümmchen zusammen, das es gegen den tatsächlichen Nutzen abzuwägen gilt. Letztlich müssen auch Überlegungen angestellt werden, wie vermieden werden kann, dass Mitarbeiter eines Unternehmens unautorisiert solche Tools nutzen oder gar kritische Daten als Input nutzen, welche zu Datenabflüssen führen können.
Zudem ist mittlerweile bekannt, dass die Tools nicht immer das liefern, was man von ihnen erwartet: manche KI-Werkzeuge "halluzinieren", beziehen sich auf nicht existierende Quellen oder haben eine Mathematik-Schwäche. Damit ist die Gefahr groß, dass Nutzer - beeindruckt von der Wortgewalt oder dem blitzschnell generierte Code - die Ergebnisse ungeprüft übernehmen. Bei eklatanten Fehlern kann in der Kommunikation nach außen unter Umständen das Image des gesamten Unternehmens Schaden nehmen.
Diese Punkte zeigen, dass KI zwar die Erstellung von Inhalten beschleunigen und so Kosten senken kann, sie aber auch ernsthafte Herausforderungen mit sich bringt, v.a. was Originalität, Relevanz, Datenschutz und andere rechtliche Aspekte betrifft, die letztlich ebenfalls finanzielle Auswirkungen haben können. So muss ihr Einsatz gut bedacht und abgewogen werden.