KI-Revolution: Was der neue AI-Act der EU für euch bedeutet | Anwalt Christian Solmecke

preview_player
Показать описание

Die EU hat den Rechtsrahmen für Künstliche Intelligenz verabschiedet. Der AI Act setzt neue Standards für KI-Systeme und will die einhergehenden Chancen und Gefahren in den Griff bekommen. WBS fasst das Wesentliche zusammen und gibt einen Ausblick auf die zukünftige Rechtslage.

04%2FCon_Grafik_General-Purpose-AI-Models_DE.jpg%3Fitok%3DVNEmuwlT&w=2048&q=75

▬▬▬▬▬▬▬▬▬▬▬▬▬
WBS.LEGAL sucht dich! Du bist auf der Suche nach einem attraktiven, spannenden und anspruchsvollen Job? Dann bewirb dich bei uns und komm in unser Team. Bei WBS.LEGAL arbeitest du im Herzen der Medienhauptstadt Köln und bist im Berufsleben immer am Puls der Zeit – garantiert.

▬▬▬▬▬▬▬▬▬▬▬▬▬
Rechtsanwalt Christian Solmecke
Christian Solmecke hat sich als Rechtsanwalt und Partner der Kölner Medienrechtskanzlei WBS.LEGAL auf die Beratung der Internet-, IT- und Medienbranche spezialisiert. So hat er in den vergangenen Jahren den Bereich Internetrecht/E-Commerce der Kanzlei stetig ausgebaut und betreut zahlreiche Medienschaffende, Web-2.0-Plattformen und App- Entwickler.

▬▬▬▬▬▬▬▬▬▬▬▬▬
Startet euren Rundgang in 3D und 360° durch die Kanzlei WBS.LEGAL (inkl. YouTube- Studio)

▬▬▬▬▬▬▬▬▬▬▬▬▬
Social-Media-Kanäle von WBS.LEGAL
Wir freuen uns, wenn du uns auch auf unseren weiteren Social-Media-Kanälen besuchst und uns dort folgst. Jeder unserer Kanäle steht für sich und bringt dir garantiert einen Mehrwert.

▬Instagram und TikTok▬
Auf unserem erfolgreichen Instagram- und TikTok-Kanal recht2go räumen wir täglich mit Rechtsirrtümern auf und präsentieren dir rechtliche Lifehacks. Mit recht2go bist du immer auf dem Laufendem und bekommst deine tägliche Dosis Alltagsrecht. Kurz, knackig und immer auf den Punkt. Folge uns auf auf Instagram und TikTok und du kannst vor deinen Freunden mit neuem Wissen glänzen.

▬Facebook▬
Auf Facebook sind wir inzwischen schon alte Hasen, denn seit Jahren informieren wir dich dort täglich über aktuelle Rechts-News. Gerne kannst du uns dort auch eine Anfrage als private Nachricht schicken. Schau vorbei! Hier der Link:

▬X / Twitter▬
Erfahre als Erster, wenn es wichtige Rechts-News gibt. Knackige Statements zu aktuellen Themen bekommst du auf unserem X-Account (ehemals Twitter)! Hier der Link:

▬Podcasts▬
Du bist unterwegs, unter der Dusche oder hörst einfach gerne Podcasts? Dann haben wir etwas für dich: Höre die Tonspur unserer Videos täglich auf Spotify, Soundcloud und iTunes. So bleibst du immer aktuell! Hier die Links:

▬Unser Zweitkanal▬
Unseren weiteren YouTube-Kanal „WBS – Die Experten“ kennst du, oder? Wenn nicht, dann unsere dringende Empfehlung: Schau rein! Denn hier erfährst du immer donnerstags ausführlich alle wichtigen Infos zu unseren Rechtsbereichen – präsentiert von einigen unserer Top-Rechtsanwälte. Ob Medienrecht, Urheberrecht, Markenrecht, Social-Media- Recht, Verkehrsrecht oder Datenschutzrecht: Das alles und mehr nur auf unserem Zweitkanal und zwar aus erster Hand von unseren WBS-Experten. Hier der Link:

▬Kontakt▬
Hotline: 0221 / 400 67 550

Рекомендации по теме
Комментарии
Автор

Ich sehe es schon kommen: "Für den Zulassungsantrag senden Sie bitte den Quellcode auf einseitig bedrucktem DIN A4 Papier ein. Bitte lose und weder getackert noch mit Büroklammern, damit die Digitalisierung erleichtert wird.
Andere Formen der Einreichung werden ignoriert." 😂

sirmeon
Автор

Am Anfang des Videos wird suggeriert, dass das Problem diskriminierender KI dadurch erzeugt wird, dass einseitig selektierte Daten zum Training verwendet werden. Das war beim präsentierten Beispiel (Microsofts "Tay" Chatbot") auch sicher der Fall. Als allgemein formulierte Aussage zielt es aber m.E. am Hauptproblem vorbei: Auch und gerade bei kompletten, nicht vorselektierten Datensätzen kommen KIs regelmäßig zu diskriminierenden Entscheidungen. Einfaches Beispiel: Frauen sind erwiesenermaßen mehr Tage im Jahr krankgeschrieben als Männer. Teils liegt das natürlich an Schwangerschaften und daran, dass bei kranken Kindern eben häufig die Mutter zuhausebleibt, seltener der Vater. Auch daher dürfte ein deutscher Arbeitgeber natürlich nicht mit Argumenten wie "Wir stellen nur Männer an, die sind weniger krank" dahergekommen, er würde sich der Diskriminierung schuldig machen. Eine rein an objektiven, kompletten, nicht einseitig ausgewählten Daten trainierte KI könnte aber dennoch zu genau diesem Ergebnis kommen und dem Unternehmen vorwiegend männliche Bewerber empfehlen. Und das Problem hierbei ist: Aufgrund der Funktionsweise des zugrundeliegenden neuronalen Netzwerks könnte niemand analysieren, ob die KI tatsächlich auf diese Weise diskriminiert oder nicht. Die KI selbst kann natürlich auch nicht "erklären", warum sie zu bestimmten Ergebnissen kommt, sie "versteht" ja nullkommanichts von den Daten - sie schleust sie nur durch einen komplexen mathematischen Algorithmus und wirft das Ergebnis aus.

In Kürze: Das Problem diskriminierender KI entsteht nicht (nur) durch einseitiges Training. Es entsteht vor allem dadurch, dass sich viele Diskriminierungen aus vollständigen, nicht selektierten Datensätzen durchaus plausibel ableiten lassen. Wir haben als Gesellschaft lediglich (aus gutem Grund) entschieden, diese Ableitungen nicht durchzuführen, weil wir niemanden aufgrund von Geschlecht, Rasse, Alter, Herkunft, etc. benachteiligen wollen. Einer KI können diese gesellschaftlichen Werte nicht vermittelt werden, da sie ja schon die Bedeutung der Daten nicht versteht. Gleichzeitig wäre es enorm schwierig, einer KI eine solche Diskriminierung tatsächlich nachzuweisen, da die KI ihre Entscheidungsfindung ja nicht erklären muss oder kann.

Die Aussagen im Video implizierten (m.E.), dass der Weg zu einer "diskriminierungsfreien" KI darin gesehen wird, die KI eben nicht "einseitig" zu trainieren. Wie oben dargelegt, würde dies das Problem nicht lösen. Der einzige halbwegs sichere Weg, diese Art von Diskriminierung zu vermeiden, wäre, die betreffenden Daten von vornherein aus der KI herauszuhalten. Selbst dann kann und wird es aber dennoch zu Diskriminierungen kommen. Um auf's obige Beispiel zurückzukommen: Selbst wenn der obigen "Personauswahls-KI" das Geschlecht der Kandidaten weder im Training noch bei der Anwendung mitgeteilt wird, könnte (und würde) sie noch immer zu diskriminierenden Ergebnissen kommen, wenn sie Daten erhält, die mit der Geschlechtsvariable korrelieren - z.B. Körpergröße. Die Aussage "Größere Menschen haben im Schnitt weniger Krankheitstage als kleinere Menschen" wäre ja ebenfalls korrekt, da Frauen im Schnitt kleiner sind als Männer, und eine KI, die diese Variable erhält, würde diesen Zusammenhang in ihrem Algorithmen abbilden. Eine ohne Geschlechtsvariable, aber mit Angabe der Körpergröße trainierte KI würde daher zu gleichsam diskriminierenden Entscheidungen gelangen - die Diskriminierungen würden lediglich große Frauen etwas seltener und dafür kleine Männer etwas häufiger betreffen.

psyringe
Автор

Ich bin bei Facebook und Instagram auf die Aktivität von AI hingewiesen worden sowie auf meine Möglichkeit, begründet zu widersprechen. Das habe ich getan und begründet, dass ich urheberrechtsrelevante Inhalte poste (eigene Sachen). Dem wurde stattgegeben und das wurde mir auch bestätigt.

Sannahmusic
Автор

Mich würde mal ein Video interessieren, welches sich mit Youtube, speziell mit Youtube Deutschland befasst.
Konkret in Punkto Zensur, was Kommentare und vor allem auch Videos betrifft. Wie ist es rechtlich vereinbar, dass ein Algorythmus/eine KI z.B. Videos demonetarisiert oder direkt komplett löscht, weil irgendetwas AGB-widriges erkannt wird, was aber nicht da ist?
Man hört immer öfter von Creators, dass ihre Videos grundlos demonetarisiert oder gar gelöscht werden und selbst der Support nicht weiß, warum eigentlich. Heißt, die haben da nicht mal selbst Einblick. Wie kann sowas sein? Immerhin gehen den Creators dadurch Einnahmen flöten, weil ein Algorythmus/eine KI Mist baut.
Und Kommentare werden auch immer öfter gelöscht, obwohl man nichts AGB-widriges schreibt, was ganz klar gegen die Meinungsfreiheit verstößt.

josephinmalta
Автор

Was ist denn der Unterschied zwischen Hochrisiko KIs und dem was Auskunfteien mit unseren Daten machen?

SirBSpecial
Автор

Die Frage ist noch offen inwiefern anonymisierte bzw synthetisch generierte Daten verwendet werden können. Wird interessant wie es dann in der Umsetzung aussieht.

XMysticHerox
Автор

Gut man muss allerdings auch bei den unzumutbare Risiken bezogen auf die Kameraüberwachung bei der Suche von Straftätern auch die entsprechenden Institute, Organisationen und Behörden in ihre Schranken weisen. Man kann ja mit Kamerasystem nach Straftätern suchen solange die gescannten Gesichter oder die Informationen wer wo ist und was diese Person gerade macht nicht gespeichert und bestehende Informationen nicht in Zusammenhang bringen. Dann würde ich Kameraüberwachung mit Gesichtserkennung weniger hoch einstufen. Wenn die Daten allerdings doch gespeichert werden dann wird es kritisch

SuperTruperHans
Автор

Ich persönlich finde die KI Thumbnails nicht gut. Man weiß, dass es nicht echt ist. Und was nicht echt ist, kann ich weniger ernst nehmen. Andererseits sind "echte" Thumbnails auch oft stark verändert. Vielleicht sieht das die jüngere Generation auch anders. Aber auf mich wirken die KI Thumbnail irgendwie weniger seriös.

Hegenbrecht
Автор

Aber dann gilt das ja nur für die EU. Der Rest der Welt kann dann immer noch mit den Daten tun und lassen, was sie wollen. 🤔 Ich meine unsere Daten gehen ja hauptsächlich Übersee, aber wenigstens sind dann EU Firmen etwas vertrauenswürdiger.

App-Generator
Автор

Interessant, dass eure Vorschaubilder nun mit KI produziert werden. Betrifft das bereits die Bilder aus der jüngeren Vergangenheit? Die wirkten auf mich nämlich teilweise recht komisch und sehr unprofessionell zusammengesetzt. Ich hatte mich schon gefragt, ob der eigentliche Designer vielleicht im Sommerurlaub ist. Wenn die von einer K"I" zusammengeschustert wurden, würde das natürlich einiges erklären.

psyringe
Автор

Das Thema ist irgendwie schon interessant. Finde es amüsant, von einer (künstlichen) Intelligenz zu reden. Nebenbei spricht man von Training.
Das, was da trainiert wird, ist lediglich eine Datenbank, auf die ein programmierter Algorythmus zugreift und sich dadurch erweitert. Von einer wirklichen Intelligenz ist das Ganze noch sehr weit entfernt.

Etwas, was eine Intelligenz besitzt und sich dessen bewusst ist. Auch wenn sie künstlich erschaffen wurde: Einfach abschalten und löschen, ist wieder eine heikle Frage. Nur weil man personenbezogene Daten heraushaben will.

Das wäre fast, als ob man einem Menschen versuchen möchte, das Gehirn zu löschen, damit dieser sich nicht mehr an einen erinnert. Da das nicht machbar ist, müsste man Schlussendlich diesem Menschen sein Leben beenden. Was menschlich nicht vertretbar ist. Stelle mir also die Frage: Ist es bei einer KI vertretbar, besonders wenn Sie sich Ihrer selbst bewusst ist, Ihr Dasein zu beenden? Zählt diese KI dann nicht zu einer neuen Gattung von Leben?

surefaceprivat
Автор

Wie ist denn das Pricing von amber search? Ist es basierend auf der Mitarbeiter Anzahl oder anzahl an Computer oder so des Unternehmens? Wär ja sonst kacke wenn ein 15 Personen Betrieb ähnlich viel zahlen muss wie in 10.000 Personen unternehmen.

schlend
Автор

5:18 nicht nur Trainings Daten sondern auch zukünftig eingespielte Daten können das Bewusstsein beeinflussen

DieterFrueh-cpgo
Автор

"Nur für schwere Straftaten" ist fast wie "Nur gegen Kinderpornographie": Das ist der Rammbock, mit dem das Tor eingerissen wird, und wenn die Technik erstmal etabliert ist, kommen die Versuche für Gesetzesänderungen, die den Einsatz ausweiten sollen. Hat man bei den Mautbrücken sehr schön beobachten können, da sind ja mehrere dieser Versuche gescheitert.

SYCHRN
Автор

Hey wbs Team 👋 könntet ihr zu dem Thema ein Video machen zu bildrechten? Was ist mit kommerzieller Nutzung von generierten Bildern von Anbietern wie beispielsweise freepik? Freepik selbst hat sich da in den terms of use fein eingenommen und alles schön schwammig formuliert. Wäre sehr interessant. Danke im Vorfeld

dertobbe
Автор

Eine KI die Gesetze inkl. GG menschenrechtskonform anwendet und auslegt wäre ziemlich gut.

Menschenrechtsabkommen sind living instruments. Sie werden entsprechend der gesellschaftlichen Entwicklung verstanden. D.h. die Begleitdokumente können sehr umfangreich sein. Und je nach Fall müssen unterschiedliche Informationen verwendet werden. Hinzu kommt ein oft anderes Verständnis z.B. was Nichtdiskriminierung und Mehrkosten angeht.

sandrauhling
Автор

14 Jahre ist das schon her ... omg bin ich alt geworden...

Eowin
Автор

Ich bin gegen "KI" --- Terminator und WarGames lassen Grüßen

f.h.
Автор

als künstlerisch schaffende person warte ich auf eine ki, die die illegale nutzung meiner werke aufspürt und automatisch an meinen anwalt leitet. 😊

Monedula
Автор

Axel kennt man auch von Chat Kontrolle und anderen Antidemokratischen Aktivitäten...

Keksemann