Es soll sogar Leute geben, die sich bei der zugegeben schwierigen Suche nach dem passenden Weihnachtsgeschenk für die Liebsten von KI beraten lassen. In gut einer Woche wird sich zeigen, ob das funktioniert. Aber im Ernst: Wenn wir sehen, was für Möglichkeiten die Systeme Künstlicher Intelligenz uns bieten und mit welcher Geschwindigkeit sie auch in ihrer Perfektionierung voranschreiten, kann einem schon ein bisschen schwindelig werden.
Manch einem wird sogar angst und bange. Denken wir nur an Dystopien à la "Terminator", "Matrix" oder "I, Robot", deren Ursprünge ja nun schon etwas weiter zurückliegen. Auch die KI gibt es schon lange - den Begriff nachweislich seit 1956 - und trotzdem stehen wir noch am Anfang einer Entwicklung, deren Verlauf wir nicht absehen können. Klar ist, dass sie tiefgreifende Folgen haben wird.
Was tun? Uns diesen Neuerungen verschließen, wie es unsere Vorvorvorfahren für opportun hielten, als sie von den ersten Glühbirnen oder Automobilen erfuhren? Abwarten und das Beste hoffen? Es so hinnehmen, wie es kommt? Wir sollten uns damit auseinandersetzen und lernen, damit umzugehen - besser, als es etwa bei den Social Media der Fall war.
Und wir sind ja nicht allein: Vor ein paar Tagen haben sich der EU-Ratsvorsitz und die Verhandlungsführer des Europäischen Parlaments vorläufig auf ein KI-Gesetz geeinigt: den Artificial Intelligence Act. Es ist ein gesetzlicher Rahmen, mit dem die Entwicklung und Nutzung von Künstlicher Intelligenz (zumindest in Europa) geregelt werden soll.
Die EU teilt KI-Systeme demnach in vier Risikoklassen ein: minimales Risiko, begrenztes Risiko, hohes Risiko und inakzeptables Risiko - je nach dem Grad, wie sie europäische Werte und Grundrechte gefährden könnten. Je höher das Risiko, desto strenger die Vorschriften. Natürlich geht es auch darum, Investitionen und Innovationen im KI-Bereich in Europa anzuregen.
Dass auch die eine oder andere fortgeschrittenere Option entfallen dürfte, mag zu langen Gesichtern führen, ist aber immer noch besser als eine ungehemmte Gesichtserkennung. Wobei es auch da eine Reihe von Ausnahmen zwecks Strafverfolgung geben soll (was dann doch wieder ein wenig an "Minority Report" erinnert).
Auch wir beim BRF sind in unserer täglichen Arbeit mit KI konfrontiert - und nutzen sie, etwa bei Übersetzungen oder bei der Verschriftung langer Interviews. Wir sind uns der Verantwortung im Umgang mit den neuen Möglichkeiten bewusst und folgen festgelegten Richtlinien, die vor kurzem in einer eigenen KI-Charta verabschiedet wurden. Dazu gehören neben Sicherheit und Datenschutz die Berufsethik und die Qualitätskontrolle.
Und nicht zuletzt die Transparenz gegenüber unseren Nutzern: "Jeder Inhalt, der signifikant von einer KI generiert wurde, muss als solcher gekennzeichnet werden." Ich darf hinzufügen: Auch dieser Kommentar ist handgemacht.
Stephan Pesch
Damit lernen umzugehen und Transparenz ist leider nicht ausreichend, wenn es um dieses Thema geht. Was passiert wenn jemand via KI als Tot erklärt wird, und dann, zum eigenen Schaden, auch noch beweisen muss, dass er noch lebt und wer der Verursacher/potentieller Angreifer ist. Jeder der von 'Intelligenz' spricht, muss daher auch das Thema der 'Selbstverteidungsmöglichkeiten gegen solche virtulellen (Personen) -angriffe und -angreifer' in der Konsequenz mit berücksichtigen ! Es braucht daher auch Waffengesetze, die den Einsatz dieser Fake-KI-Werkzeuge als Waffe unter Strafe stellen und klare Selbstverteidigung ermöglichen, da der Staat, der den Bürger ja eigentlich schützen muss, dieser Aufgabe offensichtlich nicht nachkommen will und wird - Stichwort Artikel 15 unserer Verfassung und Einsatz sogenannter 'essentieller nichtverweigerbarer Cookies im Eigenheim ' !