17
KI Reglementierung: Systeme schreiben überzeugende Falschmeldungen
(science.orf.at)
Diese Community wird zum 01.07 auf read-only gestellt. Durch die anhäufenden IT-Probleme und der fehlende Support wechseln wir als Community auf www.feddit.org/c/dach - Ihr seid herzlich eingeladen auch dort weiter zu diskutieren!
Das Sammelbecken auf feddit für alle Deutschsprechenden aus Deutschland, Österreich, Schweiz, Liechtenstein, Luxemburg und die zwei Belgier. Außerdem natürlich alle anderen deutschprechenden Länderteile der Welt.
Für länderspezifische Themen könnt ihr euch in folgenden Communities austauschen:
Eine ausführliche Sidebar findet ihr hier: Infothread: Regeln, Feedback & sonstige Infos
Auch hier gelten die Serverregeln von https://feddit.de !
Banner: SirSamuelVimes
Mit Angst vor KI Regulation pushen halte ich fast für gefährlicher. Es gibt keine gute theoretische Möglichkeit KI generierte Texte zu identifizieren und Zugriff auf KI Tools wird man fast unmöglich so einschränken können, dass nicht jene Personen darauf zugreifen können
Dass das Recht jetzt einfach kapituliert ist aber auch keine gute Option.
Stimme ich zu. Deshalb ist es auch interessant wie das, rein technisch, funktionieren soll. Ich spreche aber von der Anpassung der KI Modelle um solche Dinge zu mitigieren in Zukunft, weniger davon zu versuchen den Zugriff auf die Technologie einzuschränken, das ist nicht realistisch.
Es gibt bsplw. sehr erfolgreiche Forschung in die Richtung KI generierte Bilder zu erkennen. Von Texten ist mir bisher aber nichts bekannt, schließe aber nicht aus, dass auch das möglich ist.