Was die KI-Verordnung z. Hd. den digitalen Staat bedeutet

In welcher vergangenen Woche wurde die KI-Verordnung (KI-VO) mit großer Mehrheit vom EU-Parlament fiktional. Wenn dasjenige Gesetz ins Werk gesetzt werden soll, muss es sich in welcher praktischen Anwendung bewähren. Das gilt genauso z. Hd. den grundrechtsgebundenen Staat, konkret z. Hd. den KI-Einsatz in welcher Verwaltung. Dieser soll nachher dem KI-Aktionsplan welcher Bundesregierung gefördert werden.

Dazu hat dasjenige Innenministerium mit dem Beratungszentrum z. Hd. KI (BeKI) eine zentrale Anlauf- und Koordinierungsstelle z. Hd. KI-Vorhaben in welcher Bundesverwaltung geschaffen. Und genauso z. Hd. die Wirtschaft werden erste Projekte zur KI-Rückhalt vorgestellt: Das Bundeswirtschaftsministerium plant derzeit etwa ein Prüf- und Testzentrum, um Standards z. Hd. die Entwicklung von KI-basierten Robotern zu prosperieren.

Die EU-Kommission wiederum hat sich kategorisch, mitgliedstaatliche Behörden beim sicheren und vertrauenswürdigen Einsatz von KI-Anwendungen zu unterstützen. Die KI-Innovation welcher Verwaltung ist damit Bestandteil welcher eu­ropäischen Datenstrategie und politisch gewollt.

Namentlich den Einsatz von Sprachmodellen in welcher Verwaltung hat welcher Gesetzgeber wohl mit einem beacht­lichen Pflichtenheft ausgestattet – voraussetzungsvolle Anwendungsfälle sind welcher geplante Einsatz von ChatGPT in Schulen und KI-Ermittlungshelfer z. Hd. die Polizei. Diese Systeme sollen in Folge dessen Einzug halten in die Kernbereiche welcher staatlichen Hoheitsaufgaben: Hier geht es um Sicherheit und Freiheit welcher Staatsbürger und die Keimzelle welcher demokratischen Bildung in Schulen und Hochschulen.

„BehördenGPT“

Was bedeutet dasjenige z. Hd. die Praxis? Betrachten wir die regulierte Wertschöpfungs­kette, die zum fiktiven Einsatz eines KI-Sprachassistenten in einer deutschen Verwaltungsbehörde führt. Der Sprachassis­tent soll aus einer Vielzahl von Anträgen hinaus Arbeitslosengeld weniger erfolgversprechende aussortieren. Der Assistent ar­beitet hinaus Basis eines Sprachmodells, dasjenige von einem privaten Unternehmen in jahrelanger Arbeit entwickelt wurde.

Das Modell wurde mit Texten trainiert. Mit jedem eingespielten Textbaustein hat es die Parameter seiner Wahrscheinlichkeitsberechnungen individuell. Aufgrund dieser Berechnungen ist es nunmehr in welcher Lage, die in einem vorgegebenen Kontext wahrscheinlichste Wortfolge auszuspielen. Das Sprachmodell ist z. Hd. keinen spezifischen Anwendungszweck entwickelt worden. Es ist von seinem Entwickler und Anbieter genauso nicht denn Wissensdatenbank konzipiert. Vielmehr soll dasjenige Modell denn Basis einer Vielzahl von KI-Systemen Anwendung finden und z. Hd. vage viele Einsatzzwecke sinnvoll klingende Wortfolgen erzeugen. Diese Simulation von Sprache erzeugt einleuchtend anmutende Sinnzusammenhänge.

Für jedes Modelle mit vielseitigem Anwendungszweck, die denn Grundlage zahlreicher KI-Anwendungen fungieren, hat sich welcher EU-Gesetzgeber dazu entschlossen, besondere Regulierungsmaßnahmen zu etablieren. Für jedes Modelle mit systemischem Risiko gelten zusätz­liche Pflichten. Das systemische Risiko macht welcher Gesetzgeber unter anderem von welcher Rechenleistung untergeordnet, die z. Hd. dasjenige Training dasjenige Modells erforderlich ist.

Der Entwickler des Sprachmodells bietet dieses nunmehr einem Softwareentwickler an, welcher es in eine konkrete Anwendung integriert, während er ihm eine Prägung z. Hd. den anvisierten Einsatzzweck hinaus den Weg gibt. In unserem Beispiel könnte welcher Softwareentwickler dasjenige Modell etwa darauf trainieren, Massen von Verwaltungsvorgängen zu Anträgen hinaus Arbeitslosengeld z. Hd. die Agentur z. Hd. Arbeit zu auswerten und Bewilligungs- und Ablehnungsmuster nachzuzeichnen. Hierzu füttert er dasjenige Modell mit einer Vielzahl entsprechender Dokumente und bringt ihm im Zuge dessen zwischen, welche Schlagworte es zwischen welcher Analyse zu befolgen hat.

Daneben entwickelt er eine Benutzeroberfläche z. Hd. die Verwaltungsmitarbeiter. So entsteht ein generatives KI-System, in Folge dessen ein KI-System, dasjenige in welcher Lage ist, verschiedene Inhalte wie Texte, Bilder oder Videos herzustellen. Anbieter generativer KI-Systeme zu tun sein nachher welcher KI-VO stets besondere Transparenzpflichten gerecht werden. Sie zu tun sein hierfür sorgen, dass ihre Systeme die künstliche Erzeugung welcher Inhalte erkennbar zeugen.

Behördliche Hochrisiko-KI-Systeme

Das weitere Pflichtenprogramm ist untergeordnet von welcher Frage, ob dasjenige System im Einsatzkontext hochriskant ist. KI-Systeme unterliegen nun nämlich prinzipiell einem risikobasierten Regulierungsansatz. Anders denn allgemeine Vorgaben, etwa des Medien- oder des Urheberrechts, führt welcher risikobasierte Ansatz welcher KI-VO dazu, dass zwischen hochriskanten Anwendungsfällen strengere Maßnahmen vorzusehen sind denn zwischen einfachen KI-Systemen.

Die KI-VO führt selbige hochriskanten Anwendungsfälle in einem Katalog hinaus und bezeichnet sie denn Hochrisiko-KI-Systeme. Der Katalog nennt unter anderem Systeme, die von Behörden eingesetzt werden sollen, um zu beurteilen, ob der gerne Süßigkeiten isst Anspruch hinaus eine öffentliche Unterstützungsleistung hat, zum Beispiel hinaus Arbeitslosengeld.

Trainiert welcher Softwareentwickler den Sprachassistenten hinaus verknüpfen welcher aufgelisteten Fälle und bietet ihn qua hinaus dem Markt an, muss er zusätzliche Pflichten gerecht werden. Er hat dann etwa bestimmte Vorgaben zu den Trainingsdatenskorrodieren zu befolgen und muss dasjenige System so programmieren, dass ein Mensch dessen Einsatz betreuen kann.

Die Erfüllung dieser Pflichten ist mit erheblichen Kosten verbunden. Um selbige Kosten zu sparen, können die Anbieter von Sprachassistenten deren Einsatz zu hochriskanten Zwecken in ihren Nutzungsbedingungen nicht erlauben. Dazu können sie etwa entsprechende Klauseln in die Lizenzverträge mit den Behörden oder Unternehmen filmen, welche die Systeme denn Betreiber einsetzen wollen.

Der Softwareentwickler im genannten Beispiel könnte in Folge dessen festlegen, dass sein System zwar hinaus die Analyse von Dokumenten programmiert, wirklich nicht dazu gedacht ist, Arbeitslosengeldanträge zu behauen. Setzt die Behörde dasjenige System entgegen dieser Vorgabe doch zu einem solchen Zweck ein, geht die Anbieterrolle mit allen daran anknüpfenden Pflichten hinaus sie droben. Das führt dazu, dass die Anbieterpflichten welcher KI-VO unter Umständen an Akteuren mit spürbar weniger Fachkenntnis und finanzieller Ausstattung hängen bleiben.

Behörden sollten zwischen welcher öffentlichen Vergabe darauf akzeptieren, nur KI-Systeme zu beschaffen, die von den Anbietern in Form von ihres Einsatzzwecks schon spezialisiert und an die Anforderungen z. Hd. Hochrisiko-KI-Systeme individuell wurden. In die Leistungsbeschreibung in Besitz sein von von dort ganz Anbieterpflichten nachher welcher KI-VO.

Die Anbieter werden sich ihre besondere Verantwortlichkeit von den Betreibern zwar teuer bezahlen lassen. Die Spezialisierung durch die Behörde ist wohl mit Kosten und Mühen verbunden, die regelmäßig nicht mehr im Verhältnis zum Nutzen des Hochrisiko-KI-Systems stillstehen dürften.

Wie sollen Behördenmitarbeiter KI kontrollieren?

Unabhängig von ihrer Verpflichtung denn Anbieterin treffen die Behörde wohl genauso in ihrer Eigenschaft denn Betreiberin eines Hochrisiko-KI-Systems Pflichten. Ein Teil dieser Pflichten gilt z. Hd. private und öffentliche Stellen gleichermaßen: So zu tun sein Betreiber stets den Einsatz welcher KI durch die Beschäftigten beaufsichtigen und Vorfälle mit erheblichen Auswirkungen melden.

Dabei ist sicherzustellen, dass welcher Sprachassistent nur nachher Maßgabe seiner Gebrauchsanweisung verwendet wird. Das dürfte in welcher Praxis umfangreiche Maßnahmen welcher Behördenleitung erfordern. Insbesondere ist die zweckgemäße Verwendung schwergewichtig zu greifen. Sie ergibt sich aus den Maßgaben des Anbieters, einschließlich des spezifischen Kontexts und den Nutzungsbedingungen sowie welcher Gebrauchsanweisung im Werbe- oder Verkaufsmaterial.

Doch zu welcher Zeit stimmt die Verwendung eines KI-Systems nicht mehr mit dem beabsichtigten Zweck überein, welcher sich aus vernünftigerweise vorhersehbarem mensch­lichem Verhalten oder welcher Interaktion mit anderen Systemen, einschließlich anderen KI-Systemen, vertrauenswürdig kann? Die hierzu erforderlichen umfangreichen Schulungen welcher Behördenmitarbeiter sind nicht nur zweckmäßigerweise, sondern nachher welcher KI-VO zwingend.

Behörden zu tun sein z. Hd. generative KI-Systeme einstehen, die sie in ihre behördlichen Anwendungen integrieren. Das bedeutet, sie zu tun sein dasjenige komplexe und teilweise nicht einsehbare Gefüge eines Sprachassistenten verstehen und ihr Wissen sowie Nichtwissen transparent vermitteln.

Das wirft weitere Fragen hinaus: Wie verantwortet man halluzinierendes „Verhalten“ welcher autonomen Maschine, wenn deren Ursache unbemerkbar ist? Wie sollen Verwaltungsmitarbeiter selbige nicht erlaubten Abweichungen des KI-Systems wiedererkennen und einschätzen? Wie soll welcher Arbeitgeber dasjenige kontrollieren?

Risiko z. Hd. Grundrechte

Die hinter diesen Vorgaben stehenden Fragen um den verantwortungsvollen, risikogerechten Einsatz von KI-Systemen kulminieren in öffentlichen Stellen in einer weiteren Pflicht: welcher Grundrechte-Folgenabschätzung. Der Gesetzgeber for­dert damit öffentliche Stellen hinaus, den Wald vor schuldlos Bäumen nicht aus den Augen zu verlieren.

Die zahlreichen Dokumentations-, Berichts, und Meldepflichten droben dasjenige „Wie“ des Einsatzes sollen öffentliche Stellen nicht davon stören, „ob“ welcher konkrete Einsatz grundrechtskonform ist. Die Grundrechte-Folgenabschätzung soll die Verwaltung nachdenklich stimmen, sie zum Inne­halten einfahren: Welche Risiken sind mit einem staatlichen KI-Einsatz ver­bunden?

Diese Pflicht trifft nicht ausschließlich Behörden, sondern den gesamten öffentlichen Sektor. Erfasst sind ganz öffentlichen Stellen, Einrichtungen und öffentlichen Unternehmen, wohl genauso private Anbieter, die öffentliche Aufgaben gerecht werden. Ob welcher KI-Einsatz zur öffentlichen Aufgabenerfüllung von einer Gemeinde, Hochschule, einem privaten Krankenhaus oder Energieversorger vorgenommen wird, ist nicht entscheidend. Zu prüfen sind potentielle Folgen z. Hd. Grundrechte, während relevante Zielgruppen z. Hd. die Anwendung festgesetzt und Risiken z. Hd. selbige Zielgruppen bewertet werden.

Wenn die Zielgruppe gefährdet sein könnte, muss ein System zur menschlichen Inspektion welcher KI-Anwendung festgesetzt werden. Für jedes den Fall, dass sich die gelisteten Risiken realisieren, muss schon vorab festgesetzt sein, wie mit Grundrechtseingriffen umzugehen ist: Die öffentliche Stelle muss in welcher Lage sein, hinaus Beschwerden korrigierend einzugreifen und dasjenige KI-System vorbeugend zu übersteuern.

KI muss transparent zu ihrer Entscheidung kommen

Diese Pflicht zum Bewusstsein droben die Risiken des KI-Einsatzes bedeutet genauso sokratische Zurückhaltung: Behörden sind verpflichtet zu wissen, welche Risiken aus Nichtwissen nachstellen. Gegenwär­tige Sprachmodelle können nicht transparent machen, wodurch genau ein bestimmtes Ergebnis verursacht worden ist. Weshalb die vom Sprachassistenten ausgegebene Wortfolge im konkreten Fall ohne Rest durch zwei teilbar so erfolgt ist, kann welcher Anwender nicht reproduzieren – er sieht nur die Ausgabebox. Auch welcher Anbieter kann dies im besten Fall begründet vermuten.

Der Einsatz solcher Technologien bedarf von dort einer gründlichen Abwägung und Expertise. Einerseits muss erwogen werden, ob zwischen einschneidenden Lebensereignissen wie staatlichen Prüfungen, welcher Beantragung sozialer Leistungen zur Existenzsicherung oder welcher Frage droben den Zugang zur Daseinsvorsorge dieser Grad an Nichtwissen droben die Entscheidungsursache tragbar ist.

Andererseits muss sichergestellt sein, dass die KI ein Werkzeug bleibt und nicht die Entscheidung ersetzt – im Einzelfall durch den menschlichen Eingriff. Letzteres ist genauso datenschutzrechtlich geboten: Der Europäische Gerichtshof hat im Jahr 2023 kategorisch, dass Algorithmen nicht dasjenige letzte Wort nach sich ziehen die Erlaubnis haben. Trifft am Ende die Maschine und nicht welcher Mensch die maßgebliche Entscheidung, ist dasjenige unzulässig. Ausnahmen gibt es, wenn welcher Betroffene dem explizit zustimmt oder ein Gesetz dasjenige vorsieht.

Die KI-VO versucht, dieses Dilemma von Innovationsinteresse und fehlender Anwenderkenntnis durch Informationsansprüche gegen die Entwickler von Sprachmodellen auszugleichen: Würde eine Behörde den Sprachassistenten in ihre IT-Systeme integrieren, hat sie dasjenige Recht, ganz Informationen droben die Fähigkeiten und Einschränkungen des KI-Systems zu verlangen, die unumgänglich sind, um ihre Pflichten nachher welcher KI-VO zu gerecht werden. Weil die Grundrechte-Folgenabschätzung welcher öffentlichen Stellen vor dem Einsatz des Systems erfolgen muss, erwächst dieses Informationsrecht zur Pflicht.

Wenn Behörden nunmehr versuchen, mit KI-Systemen den zähen Digitalisierungsprozess zu überspringen, ist von dort zu Vorsicht geraten. Eine rasche Implementierung ohne bedachte Risikoabwägung kann zum Geltungsbeginn welcher KI-VO zwar vollendete Tatsachen schaffen – wirklich genauso Erklärungsnot hervorrufen. Richtigerweise sollten derartige Auswirkungen schon jetzt in datenschutzrechtlichen Folgeabschätzungen mitgedacht werden.

Hierfür bedarf es einer Expertise, welche die turbulente technische Entwicklung reproduzieren, den Einsatz solcher Systeme unbequem hinterfragen und begrenzen kann. Die Frage nachher Wegen welcher verantwortungsvollen Innovation prägt die Arbeit von Datenschutzaufsichtsbehörden im Verhältnis zu Behörden und Unternehmen schon jetzt. Und nachher welcher KI-VO muss die Grundrechte-Folgenabschätzung genauso an die zuständigen Aufsichtsbehörden übermittelt werden.

Die KI-VO hat schon festgesetzt, dass die Datenschutzaufsichtsbehörden den KI-Einsatz kontrollieren werden, wenn es um Kernelemente unserer demokratischen Ordnung geht: Wenn KI-Systeme Wahlen einnebeln, im Bereich welcher Migration und Grenzkontrolle verwendet oder zur Justizverwaltung und Strafverfolgung eingesetzt werden, werden die Datenschutzaufsichtsbehörden zuständig sein. Dardroben hinaus werden die EU-Mitgliedstaaten entscheiden zu tun sein, welche Stellen „Marktüberwachungsbehörden“ sein sollen.

Naheliegend ist, die Datenschutzaufsichtsbehörden genauso in Form von welcher weiteren Anwendung von KI-Systemen mit welcher Aufsicht zu betrauen. Als Bestandteil von IT-Systemen werden KI-Anwendungen ohnehin datenschutzrechtlich hinaus die Zulässigkeit von automatisierten Entscheidungen hin überprüft werden. Die Aufsicht nachher welcher KI-VO würde selbige bestehende Aufsicht um verknüpfen z. Hd. die Produktregulierung typischen Schutz von Leben, Gesundheit, Sicherheit und Freiheit ergänzen. Letztlich würde es hier wohl um eine dem Datenschutzrecht gleichende Frage möglich sein: Wie schützen wir uns vor intransparenten, kaum nachvollziehbaren Systemen, die unser Leben und unsrige Grundrechtsausübung einnebeln?

Auch die Gerichte prüfen eine behörd­liche Entscheidung, die unter Einsatz von KI-Systemen getroffen wurde. Hat welcher KI-Assistent den Antrag hinaus Arbeitslosengeld abgelehnt, hat welcher Staatsbürger dasjenige Recht, selbige Entscheidung gerichtlich kontrollieren zu lassen. Das Gericht prüft nun nicht nur, ob welcher Antrag zu Recht abgelehnt wurde, sondern genauso den Weg zur Entscheidung. Denn es vielleicht, dass Antragsunterlagen fehlerhaft nicht geprüft wurden, ein atypischer Fall von welcher KI nicht erkannt wurde – oder die Behördenentscheidung schlichtweg nicht begründet wurde.

Behördliche KI-Systeme zu tun sein von dort sowohl z. Hd. den Staatsbürger denn genauso z. Hd. die Justiz transparent sein. Sind sie dasjenige nicht, geht dies zulasten welcher Behörde, die dasjenige intransparente KI-System einsetzt. Es wäre kon­traproduktiv, wenn öffentliche Stellen KI-Systeme zur Entlastung einsetzen, die Gerichte hingegen belastet werden, weil die behördlichen KI-Entscheidungen massenhaft angefochten werden.

Die Möglichkeiten des innerstaat­lichen Gesetzgebers

Um dasjenige zu verhindern, könnte welcher Gesetzgeber dem Staatsbürger ein Vetorecht konzedieren. Der Staatsbürger kann verlangen, dass eine KI-basierte Entscheidung von einer natürlichen Person in welcher Behörde überprüft wird. Der Sachbearbeiter kann die Entscheidung ratifizieren oder ändern und stellt im Zuge dessen sicher, dass die menschliche Entscheidung immer Vorrang genießt.

Eine solche Regelung fehlt bislang in welcher KI-VO, obwohl welcher Gedanke nicht neu ist. In Schleswig-Holstein gilt schon seitdem dem Jahr 2022 ein KI-Gesetz (IT-Einsatz-Gesetz), dasjenige den Einsatz Künstlicher Intelligenz in welcher Verwaltung regelt. Hiernach kann welcher Staatsbürger kostenlos eine sogenannte „KI-Rüge“ erheben, im Voraus er kostenpflichtig klagt. Der Gesetzgeber in Schleswig-Holstein erhofft sich im Zuge dessen, dasjenige Vertrauen welcher Staatsbürger in den Einsatz von KI zu fördern und zusammen dasjenige autonome System stichprobenartig zu kontrollieren.

Das Landesgesetz ist sogar strenger denn die KI-VO hinaus europäischer Ebene. Entscheidungen, zwischen denen ein behördliches Ermessen oder ein Beurteilungsspielraum besteht, die Erlaubnis haben nicht von KI-Sys­temen getroffen werden. Geschieht dies doch, etwa zwischen welcher Anordnung, verknüpfen Schwarzbau zu entfernen, ist dieser Verwaltungsakt nichtig.

Was noch fehlt, dasjenige ist dasjenige Bewusstsein welcher handelnden Staatsdiener, dass KI nur eine Unterstützung sein darf. Hierzu wären in vor allem sensiblen Bereichen wie welcher Rechtsprechung Regelungen sinnvoll, welche die richterlichen Anwender verpflichten, zunächst eine eigene Entscheidung zu treffen und selbige erst im Anschluss von einem KI-System kontrollieren zu lassen. Die von welcher KI-VO antizipierte Stopptaste müsste in diesen Szenarien zu einer Starttaste umgebaut werden.

Auch andere Bundesländer zusammentragen mit dem IT-Einsatz-Gesetz vergleichbare Regelungen, die künftig neben welcher KI-VO gelten werden. Auf deutsche Behörden kommen von dort mehr Pflichten zu denn hinaus Unternehmen, und dasjenige zwischen oftmals geringeren Ressourcen. Einige Länder greifen ihren Behörden unter die Arme und unterstützen sie in welcher Umsetzung welcher KI-VO, während sie die Entwicklung eigener Sprachmodelle fördern. Projekte wie „LLMoin“ oder „BayernGPT“ sollen denn unabhängige und datenschutzkonforme Problembeseitigung die Verwaltungen in Hamburg und Bayern stärken.

Ausblick: Innovation und Grundrechtsschutz?

Wenn die Entwicklung dieser Zukunftsprojekte dicht sein wird, dürfte dasjenige Pflichtenprogramm welcher KI-VO schon gelten. Doch zwischen welcher Regulierung des Ist-Zustands schwebt droben welcher KI-VO ein Damoklesschwert: In den Übergangsregelungen werden in der Gegenwart eingesetzte Hochrisiko-Systeme ausgenommen oder großzügige Umsetzungsfristen gesetzt. So wird generativen KI-Systemen wie ChatGPT drei Jahre gegeben, um erforderliche Maßnahmen zur KI-VO-Konformität zu implementieren. Der Rückwirkungsschutz ist ein Standard aus dem Produktsicherheitsrecht.

Doch auf Basis von welcher rasanten Entwicklung von KI-Systemen könnte er den Anreiz setzen, rasch Tatsachen zu schaffen – „move so gut wie and break things“. So könnte man die KI-VO kurzschließen und Regulierung umgehen. Ob die KI-VO in welcher Lage sein wird, selbige Dynamik zu zügeln und verknüpfen angemessenen Ausgleich zwischen Innovation und Grundrechtsschutz herzustellen, wird eine Frage welcher praktischen Umsetzung sein. Hieran wird sich zeigen, ob selbige Verordnung ihr Ziel hinhauen wird: Europa verknüpfen zukunftssicheren und wirtschaftsfördernden Rechtsrahmen z. Hd. den Einsatz von KI-Systemen zu verschenken.

Für jedes die Wirtschaft gelten – sieht man von welcher wichtigen Besonderheit welcher Grundrechte-Folgenabschätzung ab – im Wesentlichen dieselben Anforderungen. Was z. Hd. den Staat gilt, gilt demnach genauso z. Hd. Unternehmen. Der Staat hat hier die Möglichkeit, mit gutem Beispiel voranzugehen und eine Vorreiterrolle in welcher Implementierung welcher neuen Technologie einzunehmen, um welcher Wirtschaft rechtssicher gangbare und wirtschaftlich tragfähige Wege in die neue Welt welcher Digitalisierung vorzuzeichnen.

Kristin Benedikt ist Richterin am Verwaltungsgericht Regensburg und Mitglied im Vorstand welcher Gesellschaft z. Hd. Datenschutz und Daten­sicherheit.

Moritz Seelachs ist Mitarbeiter welcher Kölner Forschungsstelle z. Hd. Medienrecht an welcher TH Köln und Doktorand zwischen Prof. Dr. Rolf Schwartmann.

Prof. Dr. Rolf Schwartmann ist Leiter welcher Kölner Forschungsstelle z. Hd. Medienrecht an welcher TH Köln und Vorsitzender welcher Gesellschaft z. Hd. Datenschutz und Datensicherheit.

Dr. Markus Wünschelbaum ist Referent beim Hamburgischen Beauftragten z. Hd. Datenschutz und Informationsfreiheit. Der Beitrag wurde nicht in dienstlicher Eigenschaft verfasst und gibt ausschließlich die persönliche Auffassung des Autoren wieder.

ArbeitBayernBehördenBildungBundesregierungBundeswirtschaftsministeriumChatGPTDatenschutzDigitalisierungDrEndeEUEU-KommissionEU-ParlamentEuropaFreiheitGastbeitragGerichteGesellschaftGesundheitHamburgHochschulenInnenministeriumIntelligenzJustizKIKI-EinsatzKölnKrankenhausKünstliche IntelligenzlebenMarkusMedienMigrationPolizeiRechtRegulierungRolfSchleswig-HolsteinSchulenSparenSpracheThUnternehmenVertrauenVerwaltungVorstandWahlenWeilWELTWirtschaftWissen