iusNet Digitales Recht Datenrecht

Schulthess Logo

Algorithmen

A look abroad: German Guidelines on AI Applications

Fachbeitrag
Datenschutzverletzungen
Künstliche Intelligenz

Ensuring Compliance with Data Protection Laws and Ethical Standards

Germany's AI Strategy and Action Plan aim to lead in AI development while ensuring ethical, legal, and privacy standards. The OECD has provided recommendations, and Germany's data protection authorities have issued guidelines to ensure AI systems comply with GDPR. This publication covers Germany's approach to balancing AI innovation with privacy, ethics, and trust in AI-driven industries.
Batu Uslu
iusNet DigR 30.01.2025

Das 101 der rechtlichen Aspekte im Zeitalter der Künstlichen Intelligenz

Fachbeitrag
Künstliche Intelligenz
Künstliche Intelligenz (KI) ist heute allgegenwärtig. Dieser Artikel bietet einen Überblick über grundlegende KI-Konzepte, weltweite Regulierungen und rechtliche Prinzipien. Die KI-Industrie steht durch das Aufkommen generativer KI-Technologien und neuer Gesetze vor Herausforderungen und Chancen. In diesem Artikel werden die relevantesten rechtlichen Aspekte der KI-Entwicklung beleuchtet.
Olivier Heuberger
iusNet DigR 28.09.2023

E-Persönlichkeit für Algorithmen?

Fachbeitrag
Künstlich intelligente Algorithmen prägen in zuvor nie da gewesener Weise unser Leben. Sie treffen Entscheidungen und führen Handlungen aus, die bislang den Menschen vorbehalten waren. Dies wirft unter anderem die Frage auf, ob die entstehende Verantwortungslücke mit einem speziellen rechtlichen Status für diese künstlich intelligenten Algorithmen, die E-Persönlichkeit, geschlossen werden kann und soll.
digma 1/2019

Ist auf unsere digitalen Assistenten Verlass?

Fachbeitrag

Sind intelligente Programme angreifbar? Sicherheitsbedenken beim maschinellen Lernen

Maschinelles Lernen hat in den letzten Jahren eine unglaubliche Popularität erlangt. Neben spektakulären Siegen im Schach, Jeopardy! und Go gibt es zahlreiche erfolgreiche Anwendungen in der Bild- und Spracherkennung, die immer öfter menschliche Fähigkeiten übertreffen. Anlass genug, um diese Technologie in kritische Felder wie medizinische Bildgebung und selbstfahrende Autos zu integrieren. Die meisten Systeme werden aber nicht mit Blick auf Sicherheit und Resilienz entworfen und können von jedem motivierten Angreifer mit einem guten Verständnis des Systems getäuscht werden. Die Wirksamkeit von Anwendungen mit maschinellem Lernen sollte daher nicht nur an ihrer Präzision gemessen werden, sondern auch an ihrer Widerstandskraft in einer feindlichen Umgebung.
digma 2/2017