28
submitted 3 days ago by nunoctium@feddit.org to c/dach@feddit.org

Link zum PDF

Mal sehen, wie die One-in-one-out Regel auf S. 17 angewendet werden wird. Bürokratie hat halt manchmal auch seinen Sinn.

you are viewing a single comment's thread
view the rest of the comments
[-] vapeloki@lemmy.world 30 points 3 days ago

Was rauchen die?

Dazu gehört eine Rechtsgrundlage zum Erlass von vollautomatisierten Verwaltungsakten. Damit schaffen wir zentrale Voraussetzungen für die breite Anwendung von KI in Verwaltungsprozessen.

Das öffentliche Handeln muss sich Transparenzgrundsätzen unterwerfern. Aber KI Entscheidungen sind nicht nachvollziehbar. Das sind Blackbox Systeme Der Schwachsinn hält nicht eine Sekunde einer verfassungsrechtlichen Prüfung stand. Und die wissen das.

Das ist einfach nur Bullshit gelaber. Ich könnte kotzen

[-] zaphod@sopuli.xyz 12 points 3 days ago

Wenn die ihre Prozesse anständig digitalisieren würden, dann könnten die großteils automatisiert ablaufen, ohne KI.

[-] aaaaaaaaargh@feddit.org 4 points 3 days ago

Dazu gehört eine Rechtsgrundlage zum Erlass von vollautomatisierten Verwaltungsakten. Damit schaffen wir zentrale Voraussetzungen für die breite Anwendung von Blockchain in Verwaltungsprozessen.

Dazu gehört eine Rechtsgrundlage zum Erlass von vollautomatisierten Verwaltungsakten. Damit schaffen wir zentrale Voraussetzungen für die breite Anwendung von API-driven Design in Verwaltungsprozessen.

Dazu gehört eine Rechtsgrundlage zum Erlass von vollautomatisierten Verwaltungsakten. Damit schaffen wir zentrale Voraussetzungen für die breite Anwendung von Crypto in Verwaltungsprozessen.

Sie sind alle gleich.

[-] WalterLego@lemmy.zip 3 points 3 days ago

KI kann man gut nutzen, um Texte zu analysieren und so zum Beispiel Zuständigkeit zu ermitteln. Bei uns (Krankenkasse) dürfen wir automatisch bewilligen. Wenn etwas abgelehnt wird, muss es immer noch über den Schreibtisch eines Menschen. Ich kann mir vorstellen, dass das bei staatlichem Handeln auch so ist.

[-] vapeloki@lemmy.world 4 points 3 days ago

Ich betreibe Serverlandschaften für Banken und Versicherungen.

Und das größte Problem ist: entweder ein eigenes model wird trainiert, das auf eigener Hardware in eigenen Rechenzentrum läuft oder man gibt alle Kunden/Bürgerdaten einem system bei den man nicht nachvollziehen kann was es mit den Daten tut.

Prompt Injections sind nahezu nicht auszuschließen und es gibt genügend Beispiele via man auf diese Art Daten aus AI Prozessen ausleiten kann.

Es gibt keinen sicheren AI Einsatz, und erst Recht nicht mit diesem Umfang.

[-] WalterLego@lemmy.zip 2 points 1 day ago

Das muss auf jeden Fall im eigenen Rechenzentrum sein, es braucht ja Zugriff auf alle Unternehmensdaten. Und es muss auf das eigene Unternehmen trainiert werden, mit alles Prozessen, Regulatorik, Strategien, Kundendaten, Transaktionsdaten, Bedienungsanleitungen etc. Sonst braucht man gar nicht anfangen.

[-] vapeloki@lemmy.world 4 points 1 day ago* (last edited 1 day ago)

Richtig. Aber die großen Modelle (ChatGPT z. B.) kannst du nur in der Anbieter Cloud trainieren, nicht on prem. Die geben ihre Modelle nicht aus der Hand.

Und der Bund kann wohl schlecht ein AI Datacenter baueb.

GPUs in Rechenzentrum sind nicht banal. Wesentlich höhere Strom und wärme Dichte, da muss man ganz spezielle dafür bauen.

[-] WalterLego@lemmy.zip 2 points 1 day ago

Es gibt Anbieter, die genau damit Werbung machen. Ich habe das selbst nicht geprüft, aber meine Arbeitgeberin führt genau so etwas über einen Dienstleister ein. Das System bekommt Zugriff auf Gesundheitsdaten, und unsere Rechtsabteilung ist extrem konservativ, was Datenschutz angeht. Wir dürfen zum Beispiel kein Google Adwords nutzen, weil da ein einem Punkt IP Adressen in die USA gehen.

[-] vapeloki@lemmy.world 2 points 1 day ago

Ich arbeite bei einem dieser Dienstleister :) da gibt es nicht viele von.

Und ja, wir können hier sichere Ressourcen und Kunden gelieferte model bereitstellen. Aber das war's.

Und von 3 Kunden die das versucht haben sind alle gescheitert als man ihnen die Hochrechnung für die Trainingskosten gegeben hat. Das sind ein paar Millionen Euronen. Ich wünsche euch viel Erfolg.

Da sprechen wir natürlich von LLMs und General purpose AI. Anomalierkennung und scoring ist in der Regel nicht das was wir unter KI verstehen.

[-] WalterLego@lemmy.zip 2 points 1 day ago

Für eine Hotelrechnung würde ich UiPath bzw. Robotic Process Automation benutzen. Die Vorstellung, dass KI bzw. KI Agenten schon so weit sind, wie ein Mensch arbeiten zu können ist im Moment noch illusorisch.

Ich würde mir eine KI wünschen, die mir zum Beispiel die Infos für eine SQL Query gibt. Wir haben dutzende Datenbankserver mit hunderten von Tabellen. Wenn eine KI mir sagt, wo ich welche Daten finde, wäre das super.

Betrugserkennung wäre auch ein Szenario. Betrüger sind faul und neigen dazu, Muster zu erzeugen, weil sie bestimmte Zahlen, Adressen oder andere Daten wiederholen, die für sich unauffällig sind. Eine KI kann das entdecken.

[-] vapeloki@lemmy.world 2 points 23 hours ago

Ja, Special purpose AIs sind ne gute Sache. Vor allem weil sie meist kleine Modelle benötigen, einfach zu finetunen, und sparsam im Betrieb.

Dann wird das auch was.

this post was submitted on 01 Oct 2025
28 points (100.0% liked)

DACH - Deutschsprachige Community für Deutschland, Österreich, Schweiz

4296 readers
372 users here now

Das Sammelbecken auf feddit.org für alle Deutschsprechenden aus Deutschland, Österreich, Schweiz, Liechtenstein, Luxemburg und die zwei Belgier. Außerdem natürlich alle anderen deutschprechenden Länderteile der Welt.

Für länderspezifische Themen könnt ihr euch in folgenden Communities austauschen:

___

Aus gegebenem Anlass werden Posts zum Thema Palästina / Israel hier auf Dach gelöscht. Dasselbe gilt zurzeit für Wahlumfragen al´a Sonntagsumfrage.
___

Einsteigertipps für Neue gibt es hier.
___

Eine ausführliche Sidebar mit den Serverregeln usw. findet ihr auf der Startseite von feddit.org

___

founded 1 year ago
MODERATORS