Falschbehauptungen durch KI
Der Frage, wer für Falschbehauptungen, die durch KI-Systeme wie ChatGPT verbreitet werden, haften muss, geht Alexander Heinze in einem Beitrag auf LTO nach.
In strafrechtlicher Sicht sei laut Autor schon die Tathandlung im Rahmen des § 186 StGB schwer zu fassen, da KI aufgrund der technischen Konstruktion kaum etwas »behaupten« könne, sondern vielmehr lediglich Inhalte »nachplappere«. Betrachte man jedoch die Leser eines KI generierten Textes sowie deren Verständnis, so könne eine geeignete Tathandlung dem Autor zufolge aber durchaus bejaht werden.
Als Äußernder und somit Verpflichteter komme Heinze zufolge jedoch lediglich der Betreiber bzw. Hersteller des Systems in Betracht. Für OpenAI seien Inhalte von ChatGPT jedoch keine eigenen, sondern fremde Informationen im Sinne von § 10 TMG, da die Texte letztendlich auf fremde Inhalte von Dritten zurückzuführen seien, mit denen das System trainiert worden ist. Daran ändere sich dem Autor zufolge auch nach Inkrafttreten des DSA nichts.
Das hieraus folgende Dilemma einer fehlenden strafrechtlichen Verantwortlichkeit könne man Heinze zufolge nur präventiv durch »Kontrolle und Kontrollpflichten« lösen, da ein Totalverbot den Nutzen entsprechender Systeme verkenne.
Dokumente:
Permanenter Link zu dieser News Nr. 7125:
https://www.urheberrecht.org/news/7125/
Der kostenlose Service unserer Online-Redaktion.
Das IUM dokumentiert die politischen und rechtlichen Entwicklungen aus dem Bereich des Urheber- und Medienrechts und gibt einen tagesaktuellen Newsletter heraus. Dieser informiert über neue Gerichtsentscheidungen und laufende Gesetzgebungsverfahren und ist dabei dem Gebot strikter Neutralität verpflichtet. Fördermitglieder erhalten den Newsletter vorab per E-Mail. Sein Inhalt wird hier dokumentiert.
Hier können Sie sich für den IUM Newsletter anmelden!
Gerne schicken wir Ihnen auch alle aktuellen Informationen per Mail.