Die Berechnung der Fristen erfolgt nach der Verordnung (EWG/Euratom) Nr. 1182/71 des Rates vom 3. Juni 1971, zur Festlegung der Regeln für Fristen, Daten und Termine, Abl Nr. L 124 vom 8. Juni 1971, S. 1, vgl. Anhang II: Tage = alle Tage einschließlich Feiertage, Sonntage und Sonnabende, Arbeitstage Montage bis Freitage mit Ausnahme der Feiertage.
~0737
Beschaffungsvorgang Beginn BayObLG, Beschl. v. 22. 1.2002
Das Hauptangebot ist das übliche Angebot des Bieters, sofern nicht Nebenangebote und Änderungsvorschläge von den Bietern vorgesehen werden.
Übersicht
1. KI-VO: Inkrafttreten, Übergangsvorschriften, Bestandsschutz
2. Neu: Deepseek ein echter Durchbruch?
3. BGH - KI als Erfinder
4. OZG
5. Berichte aus der Praxis
6. Literatur
7. Prof. Dr. Harald Bartl, Frankfurt am Main Digitalisierung, KI und Vergaberecht
- 1. Inkrafttreten, Übergangsvorschriften, Bestandsschutz
-
Geltung der KI-VO und Übergangs- und Bestandsvorschriften - KI-VO vom 13. Juni 2024 (Amtsblatt vom 12. Juli 2024) - Geltung ab 2. Februar 2025 am 20. Tag nach Veröffentlichung im Amtsblatt am 12. Juli 2024
Übersichten
1.Veröffentlichung, Inkrafttreten und Übergangsvorschriften
2024
2025
2026
2027
Veröffentlichung - Inkrafttreten
Übergangsvorschriften (Art. 113 S. 2 lit. a), Art. 113 S. 2 lit. b), Art. 6 Abs. 1 KI-VO - Anhang I)
1. KI-VO Veröffentlichung im Amtsblatt am 12.Juli 2024
2.Inkrafttreten am 1. August 2024
1.Allgemeine Anwendbarkeit der KI-VO ab 2. Februar 2025
2. Anwendbarkeit für verbotene Praktiken 2. August 2025
Anwendbarkeit für KI-Modelle mit Allgemeinem Verwendungszweck ab 2. August 2025
Anwendbarkeit für neue Hochrisiko-Systeme und wesentlich veränderte Hochrisikosysteme bis zum 2. August 2027
2. Bestandschutz
2027/2030
2026/2030
2025/2027
Bestandsschutz für KI-Systeme als Bestandteil bestimmter IT-Großsysteme nach Art. 111 Abs. 1 KI-VO für vor dem 2. August 2027 für in-Verkehr-gebrachte oder In-Betrieb-genommene IT-Großsysteme in den Bereichen Freiheit, Sicherheit und Recht bis zum 31. Dezember 2030
Bestandsschutz für Betreiber von Hochrisiko-KI-Systemen nach Art. 111 Abs. 2 KI-VO für vor dem 2. August 2026 in-Verkehr-gebrachte oder in-Betrieb-genommene Hochrisiko-KI-Systeme (vgl. Art. 25 KI-VO) bis zum 2. August 2030 – allerdings keine Geltung der Ausnahme bei „erheblicher Veränderung der Konzeption“ der Hochrisiko-Systeme (beachte Art. 96 Abs. 1 lit. c) KI-VO – Leitlinien der EU-Kommission).
Bestandschutz für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck nach Art. 111 Abs. 3 KI-VO für vor dem 2. August 2025 in-Verkehr-gebrachte KI-Modelle bis zum 2. August 2027 – Pflicht zur Erfüllung der „die erforderlichen Maßnahmen″
2. Deepseek - ein echter Durchbruch?
Prof. Dr. Harald Bartl
Wie schätzt der Leiter Antonio Krüger vom Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) das Deepseek-KI-System (Dps) der Chinesen ein?
Das Dps der Chinesen war für Alexander Armbruster (FAZ vom 1.2.2025, S. 24) Anlass, den Leiter des DFKI Antonio Krüger ausführlich zu interviewen.
Prof. Dr. Harald Bartl stellt die aus seiner Sicht wesentlichsten Punkte des Interviews zusammen:
1. Altere Technik (u. a. Hardware) habe die Chinesen zu einer „gewissen Kreativität“ und zu anderem Denken mit besserer Optimierung, Kombinierung und effizienterem Training ihres Modells gezwungen.
2. Nicht nur die Verbesserung des Trainings, sondern auch eine veränderte Bearbeitung der Anfragen an die KI und die dadurch erreichte Ersparnis des großen Aufwands und die Verwendung des Modells von sog. „Policies“ vergleichbar mit „verschiedenen Kochrezepten“ bei der Bearbeitung von Anfragen sei erfolgt: Reinforcement Learning = „bestärkendes Lernen“ von unterschiedlichen Rechenwegen für die Lösung mathematischer Probleme und Rückmeldungen an den Algorithmus und Herausfinden selbständiger bester Aufgabenlösungen (Anklang an Kahnemanns „langsameres Denken“).
3. Dps sei nicht „wirklich neu“, Dps habe aber erstmals die in Ziff. 2. genannten Schritte zudem kombiniert mit dem Ziel des besten Weges durch die „Verbalisierung“ aller Zwischenschritte und –ergebnisse und „lautes Nachdenken“ ähnlich wie dem in der Psychiatrie angewendeten „Think-Aloud-Protokolle“ ausgeführt Das führe zu immer wieder erfolgendem Selbst-Hinterfragen des KI-Modells.
4. Darin liege vor allem eine „große Ingenieurleistung“ („klassische Ingenieursaufgabe etwa für geübte Tüftler“) mit vielen Möglichkeiten und Stellschrauben zur Änderung, Kombination verschiedener (teils auch älterer) Modellteile etc., wofür die Chinesen ein Ökosystem mit vielen Leuten hätte, was vergleichsweise in Amerika der Fall sei.
5. Er [Antonio Krüger] nehme allerdings keinen „nächsten großen Sprung“ an, da die Grundarchitektur dem gegenwärtig angesagten Ansatz der für das KI-System folgenden Basisprinzipien folge, aber deutlich effizientere Wege und merkliche Optimierungen gefunden habe, was u. a. „ermutigend“ sei und in eine „gute Richtung“ gehe.
6. Sehr zu begrüßen sei Dps als „Open Source“ (m Gegensatz etwa zu Open AI) als wichtiges Element der akademischen Forschung an großen KI-Modellen, breiter Verfügbarkeit und der Möglichkeit des Trainings von spezialisierten Modellen für den Mittelstand. Künftig sei die Erstellung von mehr Modellvarianten mit der verfügbaren Rechenleistung möglich, was zur „Befeuerung“ und Fortschritt an KI-Modellen führen könne.
7. Hinter Dps stehe im Übrigen keine „kleine Start-up-Klitsche“, sondern ein „potenter Hedgefonds und wohl auch Alibaba“ für eine lohnenswerte Aufgabe, was auch für deutsche und europäische Wissenschaftler, wobei man allerdings „sicher zu zögerlich“ gewesen sei und sich auf ein Abwarten mit Blick auf die USA-Modelle zurückgezogen habe.
8. Die großen Recheninfrastrukturen und Investitionen seien in Europa nicht zu stemmen gewesen, man hoffe nun aber einen Schub durch die neue Regierung. Die amerikanische gewaltige KI-Initiative von 500 Milliarden-$ verändere diese Stoßrichtung nicht, auch änder dies nicht an dem Erfordernis einer leistungsfähigeren Infrastruktur.
9. Die Risiken der KI seien zu sehen. Insoweit sei auf den AI Safety Report zu verweisen, an dem er als Fachmann beteiligt gewesen sei. U. a. sei die größte Gefahr bei den fehlerbehafteten KI-Systemen, insbesondere einer schleichenden Beeinflussung der Gesellschaft und den bekannten Attacken aus dem Internet, der Meinungsbildung etc.
10. Es bedürfe dringend einer Erneuerung der KI-Strategie Deutschlands und einer auf die KI zugeschnittenen Infrastruktur und nicht einfach nur einer Ertüchtigung der Hochleistungszentren.
Auf das sehr lesenswerte, umfassende und ausführliche Interview in der FAZ vom 1.2.2025, S. 24 mit dem Titel wird verwiesen: |
„Ist die neue KI der Chinesen ein echter Durchbruch, Herr Krüger“ |
Der Informatiker Antonio Krüger leitet das Deutsche Informationszentrum für Künstliche Intelligenz (DFKI). Er erklärt, was hinter Deepseek steckt, wieso die KI-Systeme besser nachdenken können, ob wir nun weniger Rechenzentren brauchen – und was Deutschland zu tun hat. |
Das Gespräch führte Alexander Armbruster. |
3. BGH - KI als Erfinder
BGH Beschl. v. 11.06.2024 – X ZB 5/22 – Dabus – Patentanmeldung durch Hilfsantrag zulässig, da sich aus den Angaben die Anmeldung des Erfinders ergibt - Benennung einer Künstlichen Intelligenz als Erfinder unzulässig – Anmeldung muss natürliche Person hinreichend deutlich als Erfinder benennen (im Streitfall gegeben) – wichtig: Unzulässigkeit der Anmeldung der Erfindung mit KI als Erfinder – DABUS - § 6 PatG, § 37 Abs 1 PatG, § 38 S 1 PatG, § 42 Abs 3 S 1 PatG –
Leitsatz: 1. Erfinder im Sinne von § 37 Abs. 1 PatG kann nur eine natürliche Person sein. Ein maschinelles, aus Hard- oder Software bestehendes System kann auch dann nicht als Erfinder benannt werden, wenn es über Funktionen künstlicher Intelligenz verfügt. 2. Die Benennung einer natürlichen Person als Erfinder ist auch dann möglich und erforderlich, wenn zum Auffinden der beanspruchten technischen Lehre ein System mit künstlicher Intelligenz eingesetzt worden ist. 3. Die Benennung einer natürlichen Person als Erfinder im dafür vorgesehenen amtlichen Formular genügt nicht den Anforderungen aus § 37 Abs. 1 PatG, wenn zugleich beantragt wird, die Beschreibung um den Hinweis zu ergänzen, die Erfindung sei durch eine künstliche Intelligenz generiert oder geschaffen worden. 4. Die Ergänzung einer hinreichend deutlichen Erfinderbenennung um die Angabe, der Erfinder habe eine näher bezeichnete künstliche Intelligenz zur Generierung der Erfindung veranlasst, ist rechtlich unerheblich und rechtfertigt nicht die Zurückweisung der Anmeldung nach § 42 Abs. 3 PatG.
4. OZG 2024
Bundestag Beschluss v. 23. 02. 2024 (BT Dr 20/8093).Änderungen des OZG - Onlinezugangsgesetz
5. Berichte aus der Praxis
6. Literatur Autoren - A - Z
Becker, Generative KI und Deepfakes in der KI-VO, CR 2024, 353-366
Borges, Die europäische KI-Verordnung (AI Act) – Teil 1, CR 2024, 497-507
Chibanguza/Steege, Die KI-Verordnung – Überblick über den neuen Rechtsrahmen, NJW 2024, 1769
Gerdemann, Konformitätsbewertung als Kernpflicht der KI-Verordnung, NJW 2024, 2209
Muchalik/Gehrmann, Von Nullen und Einsen zu Paragraphen: Der AI Act, ein Rechtscode für Künstliche Intelligenz, CR 2024, 145-153
Produkthaftung für autonome Fahrzeuge – die zweite Spur der Straßenverkehrshaftung,
Bierekoven, Verarbeitung von Trainings‑, Test- und Validierungsdaten nach KI-VO-E, Data Act und DSGVO, ITRB 2023
Duschlbauer, Affectiv and artifial Intelligence, The Organisation in Times of Mannerist Discource, 2024
Hillmer: Schatten-KI: Kontrollverlust auf Geschäftsführungsebene, BC 2024, 251
Kippenhan, Jürgen, Künstliche Intelligenz und die Sinnstrukturen menschlichen Handelns, 2024
KI-gestützte Systeme – Zur Notwendigkeit von Systemsicht, Evaluation und Interdisziplinarität, 5
Pfeuffer, Formal, digital – ganz egal? , Vergabe Navigator 2023, 5
Reus, KI und Haftung – Realisierung erlaubter Risiken, NZG 2024, 36
Thoms/Mattheus, Künstliche Intelligenz und die Rolle des Aufsichtsrats, ESG 2024, 69
Thurow, ChatGPT-Interview zum „Rechnungswesen und Jahresabschluss“: Update nach einem Jahr, BC 2024, 110
Thurow: ChatGPT: Quick-Tipp zum Thema „Datenschutz“, BC 2024, 252
Thurow: Einsatz von KI in Finanzberichterstattung und Wirtschaftsprüfung, BC 2024, 249
Thurow: Einsatz von KI in Finanzberichterstattung und Wirtschaftsprüfung, BC 2024, 249
Thurow: Zwischenreport des Europäischen Datenschutzausschusses (EDSA): ChatGPT-Taskforce, BC 2024, 250
Thurow: Zwischenreport des Europäischen Datenschutzausschusses (EDSA): ChatGPT-Taskforce, BC 2024, 250
Weidenbach-Koschnike/Herzer, Anwendungsfall: Agiles Projektmanagement – Entwicklungskosten selbst erstellter Software jenseits des Wasserfallmodells, BC 2024, 110
Wilmer, Thomas, Künstliche Intelligenz & Recht (Textsammlung mit Vorgehensmodell, Checklists, FAQ, ): KI-VO (AI Act), KI-Haftungs-RL (Entwurf), Produkthaftungs-RL (Entwurf), Medizinprodukte-VO (Auszug) und ... für Innovations- und Technikrecht), 2024, h.da Hochschule Darmstadt
_______