Ich möchte gerne zwei Notizen und Links zu Gutachten/ Studien festhalten, mit denen ich mich heute beschäftigt habe:
Das erste war dieses Rechtsgutachten zur Bedeutung der europäischen KI-Verordnung für Hochschulen. Für mich war es auch vor dem Hintergrund interessant, dass ich mir darin endlich mal einen Überblick über die rechtlichen Knackpunkte der Verordnung aus Bildungsperspektive verschaffen konnte. Ich nehme mit:
- Die viel zitierte Pflicht zu Fortbildung zu KI ist sehr offen angelegt. Beschäftigte (und auch Lernende, wenn KI nicht nur zur Verfügung gestellt, sondern tatsächlich zum Lernen genutzt werden soll), sollen Kenntnisse über KI-Systeme haben, um diese gut und reflektiert nutzen zu können. In welcher Form und wie genau kann aber selbst entschieden werden.
- Für Open Source Modelle gibt es in der Verordnung faktisch kaum andere Bedingungen im Bildungsbereich, als für proprietäre Modelle.
- Die Herausforderungen einer Institution unterscheiden sich, je nachdem ob sie als Anbieterin (= „Hier ist ein Zugang zu einem KI-System“) oder Betreiberin (=“Wir entwickeln unser eigenes KI-System z.B. mit Schnittstellen zu unterschiedlichen Modellen) fungiert. Als Betreiberin muss (insbesondere im Hochrisiko-Bereich) deutlich mehr erfüllt werden, was es nicht einfacher machen dürfte, Menschen von digital-souveränen Lösungen zu überzeugen.
- Wenn KI zu Forschungszwecken eingesetzt wird, gilt die KI-VO nicht.
- Spannend ist die Einordnung zu Hochrisiko-KI. Hier ist bei der Bildung festgelegt, dass z.B. dann ein hohes Risiko vorliegt, wenn Maschinen über wesentliche Aspekte entscheiden, also z.B. bei Bewertung. Wenn eine KI nur etwas vorschlägt und dann ein Mensch entscheidet, ist es also demnach kein Hochrisiko. Hier fände ich es spannend mal zu untersuchen, wie sehr Menschen sich in diesem Fall aber faktisch vom KI-Vorschlag beeinflussen lassen, so dass das dann eigentlich doch Hochrisiko-Bereich sein müsste.
Die zweite Studie entstand bei Google, was zur Einordnung mit bedacht werden sollte, und untersuchte den Energieverbrauch von der Anwendung GEMINI. Ich nehme hieraus diese Denkanstöße mit:
- Es braucht mehr Klarheit darüber, worüber wir reden, wenn wir von ‚Ressourcenverbrauch bei KI‘ reden: Geht es um alles – auch schon die Entwicklung der Modelle – oder ’nur‘ um den eigentlichen Einsatz, also z.B. den Energieverbrauch pro Prompt.
- Auch bei der Betrachtung des Energieverbrauchs pro Prompt kann die genaue Berechnung sehr unterschiedlich aussehen. Es lassen sich hier vor allem Schätzungen von Messungen unter realen Begebenheiten unterscheiden. Letztere sind oft deutlich höher, als die Schätzungen, weil Server natürlich z.B. unterschiedlich ausgelastet sind o.ä.
- Auch wenn der Ressourcenverbrauch von Messungen unter realen Begebenheiten höher ist als Schätzungen, liegt er trotzdem immer noch deutlich unter den Werten, die in der Öffentlichkeit oft diskutiert werden. Konkret berechneten die Forschenden einen Wert von 0,24 Wattstunden pro Textprompt bei Gemini, was ungefähr 9 Sekunden Fernsehen entspricht. (Beim Schätzungsansatz lag der Wert nur bei 0,1)
- KI-Anbieter können offensichtlich eine Menge tun, um den Wert zu senken, z.B. durch effizientere Server-Infrastruktur. Bei Google wurde der Ressourcenverbrauch innerhalb eines Jahres angeblich um das 44fache reduziert. Das spricht sehr dafür, dass Diskussionen, ob man in Prompts aus Ressourcengründen ‚Bitte/ Danke‘ schreiben sollte, wahrscheinlich doch eher eine Ablenkung von struktureller Verantwortung der Unternehmen ist, als eine wichtige individuelle Maßnahme.
Beitrag weiternutzen und teilen
Dieser Beitrag steht unter der Lizenz CC BY 4.0 und kann somit gerne offen weitergenutzt und geteilt werden. Hier kannst du dir den Beitragslink und/oder den Lizenzhinweis kopieren. Wenn du den Beitragslink in das Suchfeld im Fediverse (z.B. bei Mastodon) eingibst, wird er dir dort angezeigt und du kannst ihn kommentieren.
