Die Neugierde auf die neuen KI-Tools wie ChatGPT ist enorm, aber wirklich damit arbeiten erst die wenigsten Kommunikations- und Marketing-Profis.

Das ist das Ergebnis einer Umfrage unserer Kommunikationsagentur zu Künstlicher Intelligenz. Und ein zentraler Grund dürfte die Unsicherheit sein, was erlaubt ist und was nicht. Ein zentraler Punkt hier ist der Datenschutz, da viele Tools hier massive gegen geltendes Recht verstoßen. Umso wichtiger ist es, dass Unternehmen mit KI-Guidelines für ihre Mitarbeitenden Klarheit und Sicherheit schaffen.

Mehr als 60 % der Kommunikationsprofis sehen in Künstlicher Intelligenz „mehr Chancen als Risiken”, nicht einmal jede:r vierte arbeitet im Job hingegen bereits mit KI-Tools, ergab unsere Umfrage im März/April 2023. Abschreckend dürften vor allem die vielen ungeklärten Fragen rund um KI sein. „Wir bekommen ganz viele Fragen gestellt, wozu man die Tools professionell einsetzen darf und wann man Bild-, Urheber- oder Nutzungsrechte verletzt“, sagt IAN-Geschäftsführer Timm Rotter. 

Verstärkt wird diese Unsicherheit durch Debatten um das ChatGPT-Verbot in Italien, politische Forderungen nach einem KI-Moratorium oder Klagen großer Bilddatenbanken gegen KI-Anbieter. Reichweitenstarke Deepfakes, also mit Hilfe von KI sehr professionell gefälschte Bilder oder Videos, die sich in Social Media sehr schnell verbreiten, verstärken die Skepsis (zum Thema Bilder und Datenschutz lesen Sie mehr übrigens hier auf LinkedIn).

KI in Unternehmen: Zum Erfolg braucht es Trainings und Guidelines

Auf diese berechtige Unsicherheit sollten Unternehmen reagieren. Es reicht nicht, in handwerklichen Trainings die Arbeit mit ChatGPT & Co einzuüben. Unternehmen brauchen individuelle KI-Guidelines, die Mitarbeitenden Sicherheit geben, was sie tun dürfen und wo es rechtliche und ethische Grenzen gibt. Denn KI-Anwendungen werden nur dann erfolgreich sein, wenn ihr Mehrwert deutlich wird und sie zugleich Vertrauen aufbauen. Dazu wollen wir als Agentur beitragen. 

Wir arbeiten bei In A Nutshell seit 2018 mit KI-gestützten Systemen – etwa in der Datenanalyse, bei der Transkription von Interviews oder in der Bildersuche. Insofern ist der technologische Ansatz für uns nicht neu, neu sind jedoch die einfache Nutzbarkeit und die Leistungsfähigkeit neuer Tools der Kategorie Generative KI.

Wir haben daher für unsere Agentur bereits entsprechende Guidelines zum Umgang mit Künstlicher Intelligenz entwickelt. Deren wichtigstes Ziel: unsere Mitarbeitenden zum Umgang mit KI zu motivieren. Denn wir sind überzeugt, dass die neuen Technologien uns als In A Nutshell besser machen und für jede:n einzelne:n hier deutlich mehr Potenziale als Risiken bieten werden. Daher sollten wir die neuen Tools als wertvolle Werkzeuge verstehen und versuchen, – wo sinnvoll – KI in unseren beruflichen Alltag zu integrieren. 

KI-Verordnung: Die Verantwortung für künstlich erzeugte Inhalte tragen wir Menschen

Das wird allerdings nur gelingen, wenn wir auch die Schwächen der KI wahrnehmen und darauf reagieren. Maßgeblich sind für uns hier die „Ethics guidelines for trustworthy AI“ der EU. Das heißt, dass wir nur KI einsetzen, die 

  1. rechtmäßig ist und alle anwendbaren Gesetze und Bestimmungen einhält.
  2. ethisch ist – also Menschenrechte, sonstige Grundsätze und Werte garantiert. Dazu zählen u.a. menschliche Autonomie, Fairness und demokratische Werte.
  3. technisch und in der Anwendung so robust ist, dass sie möglichst keinen unbeabsichtigten Schaden anrichtet.

Die Politik ringt aktuell auf allen Ebenen darum, belastbare Regelwerke zum Umgang mit KI zu entwickeln. Viele Unternehmen fragen sich, wann endlich eine entsprechende KI-Verordnung der EU in Kraft tritt, die Guidance gibt. Mit dem „AI Act“ ist ein entsprechendes Werk in Brüssel in Arbeit, wird aber bereits massiv kritisiert: Die KI-Verordnung würde die Bereitstellung und Verwendung von KI durch private und öffentliche Akteure viel zu weitreichend regulieren. Der AI Act soll u.a. unterschiedliche Angebote nach Risikoklassen clustern – inklusive „Hochrisiko-KI-Systeme“, die nur noch innerhalb enger Grenzen genutzt werden dürfen.

Unternehmen können jedoch nicht warten, bis die EU so weit ist. Es braucht möglichst rasch Sicherheit für die Mitarbeitenden. Daher haben wir als Agentur in unseren KI-Guidelines klare Regeln definiert, etwa

  • … dass jede:r im Team gerne neue Tools testen soll und darf – dauerhaft zum Einsatz kommt bei uns aber nur Software, die wir für die Agentur offiziell freigeben. Technologischer Nutzen allein reicht hierzu nicht, die Tools müssen auch rechtlich und ethisch unseren Ansprüchen genügen. 
  • … dass wir gegenüber Kunden und Partnern transparent in der Nutzung von KI sind 
  • … dass wir bei KI besonders sensibel sind für Datenschutz und vertrauliche, personenbezogene Kundendaten 
  • … dass wir Urheber- oder Nutzungsrechte achten
  • … dass auch bei KI die üblichen Sorgfaltspflichten gelten – weil wir uns immer bewusst sein müssen: Die Verantwortung für alle mit KI erzeugten Inhalte tragen wir Menschen. Oder, wie die Deutschen Presseagentur (dpa) es auf den Punkt bringt: „Das Siegel ist nicht ,Made by KI’, sondern ,Made by a Human’.“

Der Hype um die Generative KI in den vergangenen Wochen hat dazu geführt, dass manche bedenklichen Entwicklungen schnell wieder in Vergessenheit gerieten. Wir haben etwa lieber über absurde Halluzinationen (also faktische Fehler) von ChatGPT gelacht, als ernsthaft zu diskutieren, wohin es führt, wenn führende Medien wie die US-Technikseite Cnet monatelang KI Artikel schreiben lässt, ohne darauf aufmerksam zu machen. Beispiele wie diese zeigen, wie überfällig entsprechende Leitplanken sind.

Wer sich tiefergehend mit KI-Guidelines für Kommunikation und Marketing beschäftigen möchte, findet auch in den KI-Leitlinien des BVDW guten Input und bei dpa. Lesenswert ist auch die Position des Deutschen Journalistenverbandes, der vor allem auf den Arbeitnehmer:innenschutz eingeht. 

Künstliche Intelligenz und Datenschutz: Unternehmen müssen Sicherheit geben

Was hingegen fehlt, sind anwendbare politische Richtlinien für den Umgang mit KI in Kommunikation und Marketing. Der AI Act der EU soll hier zwar Leitplanken setzen, allerdings komme die Medienbranche hier deutlich zu kurz, kritisiert etwa der Thinktank Internet Policy Review. Vor allem seien die langfristigen Konsequenzen für demokratische Prozesse und Grundrechte darin nicht berücksichtigt. 

Wie gefährlich der Missbrauch von KI ist, hat bereits vor Jahren der Fall Cambridge Analytica gezeigt – Tools des Unternehmens analysierten in großem Stil Daten über Internetnutzer in den USA, um dann durch individuell zugeschnittene Social Media-Botschaften ihr Wahlverhalten zu beeinflussen, u.a. zugunsten von Donald Trump. Je leistungsfähiger KI, so Internet Policy Review, desto schneller können sich Desinformationen verbreiten und desto massiver könnte das die Radikalisierung und Polarisierung von Gesellschaften befeuern.

Johannes Priewich SENIOR CONTENT STRATEGIST / TEXTCHEF

Johannes Priewich, Senior Content Strategist / Managing Editor

 

Möchten Sie mehr über den Umgang mit Künstlicher Intelligenz erfahren? 

Schreiben Sie mir gerne eine E-Mail
oder vereinbaren Sie einen kostenlosen Kennenlerntermin mit uns.