iusNet Digitales Recht und Datenrecht

Schulthess Logo

Digitales Recht und Datenrecht > Fachbeitraege > Vertrauensschutz bei fehlerhaften Behördenauskünften durch Chatbots

Vertrauensschutz bei fehlerhaften Behördenauskünften durch Chatbots

Vertrauensschutz bei fehlerhaften Behördenauskünften durch Chatbots

Fachbeitrag
Künstliche Intelligenz

A.    Einleitung

Seit Joseph Weizenbaum in den 1960er Jahren «Eliza»1 als virtuelle Psychotherapeutin programmierte,2 wird an Chatbots als Interaktionskanal zwischen Menschen und Maschinen gearbeitet. Lange Zeit lieferten Chatbots aber ungenügende Resultate oder wirkten zu mechanisch.3 Erst Ende des 20. Jahrhunderts ermöglichten leistungsfähigere Computer mit höherer Speicher- und Rechenkapazität die weitere Entwicklung und Implementierung von Chatbots.4 Durch die Veröffentlichung von ChatGPT5 im November 2022 haben Chatbots einen weiteren Aufschwung erlebt.

Auch Schweizer Behörden sehen vermehrt Chatbots zur Informationsvermittlung und Auskunftserteilung vor. So setzt bspw. das Einwohneramt des Kantons Basel-Stadt einen Chatbot ein, der u. a. zur An- oder Abmeldung im Kanton oder zum Wohnungswechsel Auskunft erteilt.6 Chatbots der Sozialversicherungsämter der Kantone Aargau und St. Gallen beantworten Fragen rund um den Anspruch auf Prämienverbilligung.7 Die Zivilstandsämter der Kantone Basel-Stadt und Luzern setzen Chatbots u. a. zur Bestellung von Geburtsurkunden oder Heimatscheinen ein.8 Auf Bundesebene unterstützt ein Chatbot bei der Recherche im Bundesarchiv,9 der Chatbot "StatBot.swiss" des Bundesamtes für Statistik interagiert nach dem Frage-Antwort-Prinzip mit den offenen Daten der öffentlichen Verwaltung (Open Government Data, OGD) in der Schweiz,10 und die Eidgenössische Stiftungsaufsicht hat unlängst den Chatbot «Esi» lanciert, der Stiftungen und Revisionsorganen helfen soll, unkompliziert Antworten auf Fragen rund um das Schweizer Stiftungswesen zu finden.11 Es ist zu erwarten, dass im Zuge der allgemeinen Verwaltungsdigitalisierung12 Chatbots weiter an Bedeutung gewinnen werden. Damit stellt sich die zentrale Frage, wie die Rechtslage aussieht, wenn Chatbots fehlerhafte Auskünfte erteilen.

Vor diesem Hintergrund werden im Folgenden zunächst die massgebenden Unterschiede zwischen regelbasierten und datenbasierten Chatbots sowie deren potenzielle Einsatzbereiche erörtert (B.). Sodann wird untersucht, ob das im Zusammenhang mit Behördenauskünften durch Menschen entwickelte Konzept des Vertrauensschutzes auch im Kontext von behördlichen Chatbot-Auskünften greift (C.). Nicht Gegenstand dieses Aufsatzes sind Chatbots von privaten Anbietern, die mit öffentlich zugänglichen Daten von Behörden trainiert wurden.13 Der Beitrag schliesst mit einem Fazit (D.).

B.    Grundlagen und Einsatzbereiche

Im Folgenden wird zuerst der Chatbot-Begriff für die Zwecke des vorliegenden Beitrages eingegrenzt (B.I). Sodann werden die verschiedenen Funktionsweisen erläutert (B.II).

I.    Eingrenzung

Bei einem Chatbot handelt es sich um ein Onlinedialogsystem, das in einer von Menschen gesprochenen Sprache (natürliche Sprache) und in Echtzeit rund um die Uhr mit gleichbleibender Qualität kommunizieren kann.14 Der Begriff setzt sich aus den englischen Worten to chat (sich unterhalten) und bot (Roboter) zusammen.15 Der Chatbot gibt Antworten auf spezifische Fragen oder leitet eine entsprechende Aktion ein.

Der vorliegende Beitrag beschränkt sich auf Chatbots, die zur (schriftlichen16) Auskunftserteilung eingesetzt werden. Die interaktive Kommunikation erfolgt dabei in einer digitalen Umgebung – etwa einer Gemeindewebseite – und zielt darauf ab, den Austausch zwischen staatlichen Behörden und Privaten17 nachzubilden.18

II.    Funktionsweise

Einem Chatbot können verschiedene Modelle zugrunde liegen. Für die vorliegenden Zwecke wird zwischen regelbasierten (B.II.1.) und datenbasierten (B.II.2.) Chatbots unterschieden.19

1.    Regelbasierte Chatbots

Bei Chatbots, die auf regelbasierten Algorithmen beruhen, wird der Input (die Frage) anhand vorgegebener Regeln einer vordefinierten Antwort zugeordnet.20 Der Chatbot kann z. B. auf einem Entscheidungsbaum basieren und zur Beantwortung der Anfrage einem Flussdiagramm folgen.21 Dabei kann die Benutzerin oder der Benutzer die Frage z. B. aus einer Liste auswählen.22 Ein solcher Ansatz liegt etwa dem Chatbot der Steuerverwaltung des Kantons Schwyz zugrunde. Dieser zeigt verschiedene Optionen an und leitet als Reaktion auf die Auswahl durch einen Fragenkatalog, um die entsprechende Antwort anzeigen zu können.23 Die Benutzerin oder der Benutzer kann die Frage jedoch auch in Textform verfassen. Der Chatbot basiert in diesen Fällen i. d. R. auf der Schlüsselworterkennung.24 Jeder hinterlegten Antwort sind entsprechende Schlüsselwörter zugeordnet.25 Wird in der Frage keines der Schlüsselworte genannt, stellt der Chatbot vorprogrammierte Rückfragen, um die fehlenden Worte zu ermitteln.26 So setzt etwa das Migrationsamt des Kantons Zürich einen Chatbot ein, der die Worteingabe einem bestimmten Bereich zuordnet und daraufhin Rückfragen stellen kann.27

Bei regelbasierten Chatbots sind die Antwortmöglichkeiten endlich. Es werden keine neuen Textantworten generiert.28 Bei der Programmierung müssen folglich möglichst viele Dialoge antizipiert werden.29 Dies führt gleichzeitig dazu, dass bei regelbasierten Chatbots nachvollziehbar ist, wie die Antwort auf eine bestimmte Frage zustande kommt.

2.    Datenbasierte Chatbots

Im Unterschied zu den traditionellen Programmieransätzen können auch datenbasierte maschinell lernende Algorithmen – häufig mit dem Begriff «Künstliche Intelligenz» (KI) umschrieben30 – eingesetzt werden.31 Im Folgenden wird zuerst auf einige Grundsätze betreffend datenbasierte Chatbots eingegangen (B.II.2.a.), um anschliessend die Besonderheiten von Large Language Models (B.II.2.b.) zu erläutern.

a.    Grundsätze

Bei datenbasierten Chatbots ist das Ziel die Entwicklung eines Modells, das nach eigenen Regeln Wahrscheinlichkeiten berechnet, um von einem Input zu einem Output zu gelangen. Dieses Modell wird sodann auf unbekannte Datensätze angewendet.32 Solche Modelle beruhen somit auf wahrscheinlichkeitsbasierten Zusammenhängen und nicht auf einer Datenverarbeitung nach vorgegebenen Regeln.33 Dabei können ganz unterschiedliche Methoden maschinellen Lernens, etwa künstliche neuronale Netze34, zur Anwendung gelangen.35 Das Fundament bilden i. d. R. Trainingsdaten, d. h. genügend grosse Datensätze (sog. Big Data36), die auf verallgemeinerbare Muster und Korrelationen hin analysiert werden.37 Der Vorteil ist, dass datenbasierte Chatbots dadurch weitreichendere Dialogelemente verarbeiten können als regelbasierte Chatbots.38 Jedoch führen die Wahrscheinlichkeitsberechnungen auch dazu, dass ein datenbasierter Chatbot ausgehend von identischen Inputs nicht immer dieselben Outputs generiert. Die Antworten sind somit nicht abschliessend vorhersehbar, d. h. der Weg, auf dem diese Antworten im konkreten Einzelfall zustande kommen, ist für Menschen kognitiv nicht nachvollziehbar. 39 Zudem sind die Antworten durch die Wahrscheinlichkeitsberechnungen auch entsprechend fehleranfällig. Immerhin sind sie in ihren Antwortmöglichkeiten dahingehend limitiert, als sie nicht über die Informationen in den Trainingsdaten, die ihnen zur Verfügung gestellt werden, hinausgehen können.40

Bei dem von der Stadt St. Gallen eingesetzten Chatbot «Gallus» handelt es sich um einen solchen datenbasierten Chatbot.41 Gallus verfolgt das Ziel, einen einfacheren Zugang zu gewissen Basisdiensten der Verwaltung wie etwa der Abfrage von Öffnungszeiten oder der Parkplatzsituation zu ermöglichen.42 Dabei werden ständig neue Daten in das Chatbot-System eingepflegt, um dessen Anwendungsbereich zu vergrössern.43 Auch die konsularische Direktion des Eidgenössischen Departements für auswärtige Angelegenheiten (EDA) setzte im Rahmen eines Pilotprojekts einen datenbasierten Chatbot ein. Dieser informierte (in französischer Sprache) über die konsularischen Dienstleistungen.44

b.    Large Language Models

Seit der Veröffentlichung von ChatGPT45 werden sog. Large Language Models (LLMs)46 im Kontext von Chatbots als besonders vielversprechend betrachtet.47 Dabei handelt es sich um Systeme, die auf maschinell lernenden Algorithmen basieren, deren Ziel die Verarbeitung von natürlicher Sprache ist (Natural Language Processing, NLP).48 Im Einsatz sind sog. Transformer, eine Weiterentwicklung von künstlichen neuronalen Netzen.49 Dabei wird eine sehr grosse Menge an Trainingsdaten (hier in Textformat) in das Netz eingegeben.50 Diese Daten werden zunächst numerisch abgebildet, wobei das System in einem Lernprozess eine Art Logik in der menschlichen Sprache herausarbeitet.51 Basierend auf dieser Logik wird selbständig ein (Sprach-)Modell entwickelt.52 So basiert der Chatbot Esi der Eidgenössischen Stiftungsaufsicht (ESA) auf dem LLM ChatGPT 3.5 Turbo.53 Esi stützt sich bei der Auskunftserteilung auf Informationen und Dokumente, die von der ESA vorgegeben wurden.54

Bei Chatbots, die LLMs nutzen, handelt es sich ebenfalls um datenbasierte Chatbots. Allerdings können LLMs selbständig Texte erzeugen (sie sind generativ), ohne auf zusätzliche Regeln oder Wissensquellen zurückgreifen zu müssen.55 Dadurch sind sie noch flexibler einsetzbar und nicht auf einen bestimmten Kontext beschränkt.56

C.    Vertrauensschutz bei Chatbot-Auskünften

Der Vertrauensschutz – als Teilaspekt von Treu und Glauben (Art. 9 BV)57 – bedeutet, dass Private unter bestimmten Voraussetzungen – Eignung der Auskunft zur Begründung von Vertrauen (C.I.); Zuständigkeit der Behörde (C.II.); Vorbehaltlosigkeit der Auskunft (C.III.); weitere Anforderungen (C.IV.) – in ihrem durch behördliches Verhalten geweckten Vertrauen geschützt werden.58 

I.    Eignung der Auskunft zur Begründung von Vertrauen

Der Vertrauensschutz greift nur, wenn die erteilte Auskunft geeignet ist, Vertrauen zu begründen. Diesbezüglich sind im Zusammenhang mit behördlichen Chatbot-Auskünften insbesondere die inhaltliche Bestimmtheit der Vertrauensgrundlage (C.I.1.), die Vertrauenswürdigkeit der Auskunft (C.I.2.) und die Fehleranfälligkeit der Chatbot-Auskünfte (C.I.3.) von Interesse.

1.    Inhaltliche Bestimmtheit der Vertrauensgrundlage

Eine Vertrauensgrundlage liegt vor, wenn das Verhalten eines staatlichen Organs bei der oder dem Privaten eine bestimmte Erwartung auslöst.59 Hierfür muss die Auskunft inhaltlich genügend bestimmt sein.60 Der Vertrauensschutz bedingt grundsätzlich, dass eine individuell-konkrete Grundlage vorliegt; generell-abstrakte Auskünfte werden in der Regel nicht als genügende Vertrauensgrundlage erachtet.61 Das bedeutet, dass sich die Antwort auf einen konkreten Sachverhalt beziehen muss, zu dem die anfragende Person um Auskunft ersucht (individuell-konkrete Auskunft).
Indes wird das Erfordernis einer individuell-konkreten Auskunft teilweise relativiert. So werden generell-abstrakte Aussagen oder Informationen auf einem amtlichen Formular, in einem Merkblatt oder auf einer amtlichen Internetseite unter gewissen Voraussetzungen als Vertrauensgrundlage gewertet. Dies gilt gemäss einem (restriktiveren) Teil der Lehre, wenn die Informationen so genau zum Einzelfall passen, dass sie als konkrete Auskunft eingestuft werden können.62 Ein anderer Teil der Lehre ist diesbezüglich grosszügiger und stellt darauf ab, ob eine Information allgemein darauf abzielt, rechtliche Klarheit zu schaffen.63 Die Information muss sich dabei weder auf einen konkreten Sachverhalt beziehen noch an einen individuellen Adressaten oder eine individuelle Adressatin richten.64 Dies wäre z. B. bei einer allgemeinen Rechtsauskunft in einem vorgedruckten Formular65 oder einem allgemeinen Merkblatt66 der Fall. Gemäss CHIARIELLO kommt es auf den Gesamtzusammenhang an, in den sich eine solche Information einfügt.67
Zusammenfassend lässt sich festhalten, dass individuell-konkrete Auskünfte hinreichend bestimmt sind, um eine Vertrauensgrundlage zu bilden. Bei generell-abstrakten Informationen herrscht in der Lehre hingegen bislang keine Einigkeit, wann diese ausnahmsweise ebenfalls als Vertrauensgrundlage dienen können.68 Auch in der Rechtsprechung zeigt sich gerade mit Blick auf Behördeninformationen auf amtlichen Webseiten (noch) keine klare Linie.69

Mit Blick auf Chatbots kann aufgrund des Gesagten zunächst einmal festgehalten werden, dass individuell-konkrete Chatbot-Auskünfte durchaus als hinreichend bestimmte Vertrauensgrundlage i. S. d. Vertrauensschutzes eingestuft werden können.70 Gerade datenbasierte Chatbots können zur Beantwortung konkreter Fragen eingesetzt werden.71 Erhalten Private auf diese Art eine individualisierte Antwort, kann diese denselben Bestimmtheitsgrad aufweisen wie eine menschliche Behördenauskunft. Es spricht demnach nichts dagegen, diese als hinreichend bestimmte Vertrauensgrundlage zu qualifizieren. 
Sodann ist hinsichtlich generell-abstrakter Chatbot-Auskünfte auf die in der Lehre unterschiedlich weit gehende ausnahmsweise Anerkennung allgemeiner Informationen als hinreichend bestimmte Vertrauensgrundlage hinzuweisen. Als Minimum ist diesbezüglich zu fordern, dass analog zur restriktiven Lehrmeinung mindestens jene allgemeinen Chatbot-Auskünfte als Vertrauensgrundlage zu qualifizieren sind, die so genau zum Einzelfall passen, dass sie als konkrete Auskunft eingestuft werden können. Somit könnte z. B. auch der Output (die Antwort) eines regelbasierten Chatbots, der anhand bestimmter Schlagwörter vorprogrammierten Abläufen folgt oder verschiedene Antworten in einem Flussdiagramm zur Auswahl anbietet,72 u. U. eine hinreichend bestimmte Vertrauensgrundlage bilden. 

2.    Vertrauenswürdigkeit der Auskunft 

Eine weitere Voraussetzung für die Beurteilung, ob sich die Auskunft zur Begründung von Vertrauen eignet, bildet die Vertrauenswürdigkeit der erteilten Auskunft. Bei einem behördlichen Chatbot-Einsatz muss sich die Vertrauenswürdigkeit der Auskunft nach vorliegender Ansicht bereits durch die Tatsache ergeben, dass der Chatbot durch die Behörde eigens zur Information eingesetzt wird. Grundsätzlich scheint daher die Vertrauenswürdigkeit der Auskunft durch den Chatbot-Einsatz im Vergleich zur menschlichen Auskunft nicht beeinträchtigt zu werden. Hingegen ist im Folgenden zu diskutieren, ob das digitale Umfeld, in dem der Chatbot eingesetzt wird, die Vertrauenswürdigkeit der Auskunft tangiert.

Öffentliche Organe können Chatbots – soweit technisch möglich – auf allen digitalen Umgebungen, mittels derer sie mit den Privaten in Kontakt treten, einsetzen. So ist nicht nur die Kommunikation über formelle Schnittstellen wie bspw. eine Gemeindewebseite möglich,73 sondern auch der niederschwellige Kontakt über Messenger-Dienste sozialer Medien, die nicht von der Behörde bewirtschaftet werden, denkbar.74 Es stellt sich die Frage, ob der formelle oder informelle Charakter der Plattform einen Einfluss auf die Vertrauenswürdigkeit der in diesem Umfeld erteilten Chatbot-Auskunft haben kann.

Der Vorteil, einen Chatbot über einen Messenger-Dienst zur Verfügung zu stellen, besteht darin, dass die weit verbreitete Nutzung der sozialen Medien auch mehr Private an das Chatbot-Angebot heranführt. So können andere, personalaufwändige Informationskanäle – bspw. Telefondienst und E-Mailverkehr – entlastet werden. Allerdings stellen die entsprechenden Plattformen keinen offiziellen staatlichen Berührungspunkt dar. Wie es der Name bereits sagt, sind die sozialen Medien eher für den unverbindlichen sozialen Austausch und nicht für die Erlangung behördlicher Informationen intendiert. Als kollaborative Plattformen werden sie primär von privaten Nutzerinnen und Nutzern gespiesen und sind kaum kontrolliert. Es könnte argumentiert werden, dass Informationen über die sozialen Medien von den Privaten nicht in guten Treuen als vertrauenswürdig eingestuft werden dürfen.75

Daraus könnte gefolgert werden, dass sich die Auskünfte von Chatbots, die über informelle Plattformen abgegeben werden, nicht als Vertrauensgrundlage eignen.76 Hingegen wäre es verfehlt, die Behörden durch die Verwendung dieser Plattformen von ihrer Pflicht zu qualitativ hochwertiger Information zu entbinden. Es sind die Behörden selbst, die sich zur Erschliessung dieser neuen Kommunikationsplattform entscheiden und davon profitieren. Die Qualität und somit auch die Vertrauenswürdigkeit von Behördeninformationen können nicht von der gewählten Kommunikationsplattform abhängig gemacht werden.77 Insgesamt erscheint daher die Vertrauenswürdigkeit der behördlichen Auskunft bei einem Chatbot-Einsatz durch das digitale Umfeld nicht beeinflusst.

3.    Fehleranfälligkeit der datenbasierten Chatbot-Auskunft

Das Vorliegen einer Vertrauensgrundlage kann im Kontext eines Chatbot-Einsatzes auch durch die Fehleranfälligkeit von datenbasierten Chatbot-Auskünften in Frage gestellt werden. Dies betrifft alle datenbasierten Chatbots (C.I.3.a.), ganz besonders aber solche, die LLMs nutzen (C.I.3.b.).

a.    Bei datenbasierten Chatbots im Allgemeinen

Dass datenbasierte Chatbots fehlerhafte Auskünfte geben können, wurde bereits weiter oben dargelegt.78 Ein Ansatz, um dieser Problematik zu begegnen, ist u. a. die sorgfältige Vorauswahl überprüfter Trainingsdaten zur Entwicklung des Modells.79 Es handelt sich mithin um eine ex ante Kontrolle der verwendeten Daten, wodurch die Antworten des Chatbots gewissermassen antizipierend eingehegt werden können. Die Entwicklung eines verlässlichen und vertrauenswürdigen Chatbots hängt somit zwangsläufig mit der Qualität der Trainingsdaten zusammen.80 Die Korrektheit der Daten ist dabei von zentraler Bedeutung.81 Eine hohe Datenqualität setzt grundsätzlich voraus, dass der Ursprung der Daten bekannt ist und diese überprüfbar sind.82

Überdies können in datenbasierten Chatbots auch Blockaden und Content-Filter programmiert werden, die diese in ihren Antworten limitieren.83 Derartige programmierte Blockaden können jedoch überwunden werden.84 So können Chatbots dahingehend manipuliert werden, dass sie Antworten geben, die bei der Programmierung eigentlich ausgeschlossen wurden.85 Auf diese Weise können unerwünschte oder gar gesetzeswidrige Antworten produziert werden, obwohl dies ursprünglich ausgeschlossen werden sollte. Jailbreaking wird in diesem Zusammenhang als Begriff genutzt, um das Phänomen zu beschreiben, dass eine Anwendung so manipuliert wird, dass die Benutzenden Zugang zu allen Funktionen und Informationen erhalten, auch wenn diese eigentlich nicht zugänglich sein sollten.86 Ein prominentes Beispiel unter vielen ist der Microsoft Chatbot Tay.87 Dieser musste deaktiviert werden, da er durch gezielte Fragen – in nur wenigen Stunden – dazu gebracht wurde, rassistische Äusserungen zu verbreiten.88 Bei datenbasierten Chatbots besteht demnach das Risiko, dass diese – sei es durch einen allgemeinen Hacker-Angriff, sei es durch gezielte Manipulation, z. B. durch die anfragende Person – vermehrt falsche oder aus Sicht der Behörde ungewollte Auskünfte erteilen.

b.    Zur Fehleranfälligkeit von LLMs

Die Fehleranfälligkeit von Chatbots wird insbesondere seit der Lancierung von ChatGPT konstatiert. Dabei wird von Halluzination gesprochen.89 Als Halluzination wird in diesem Kontext eine linguistisch plausible Antwort eines LLMs bezeichnet, die allerdings inhaltlich nicht vollständig korrekt ist.90 Dies kann insbesondere dann auftreten, wenn der Chatbot mit Inhalten (Sachstand) konfrontiert wird, bei der die Datenbasis unzureichend ist.91 Des Weiteren ist zu beachten, dass sich die Halluzinationen verstärken können, je stärker die Materie fachdomänenspezifisch ist.92 Es handelt sich mit anderen Worten um Falschaussagen durch den Chatbot, die durch Laien kaum erkannt werden können.93
Überdies greifen LLMs häufig auf ungeprüfte Daten aus unsicheren Quellen zu. Dadurch können Daten (versteckt) manipuliert und unerwünschte Anweisungen für die LLMs hinterlegt werden (Indirect Prompt Injections).94 Hinzu kommt, dass Studien zeigen, dass die Ergebnisse von LLMs über relativ kurze Zeiträume in ihrer Kohärenz abnehmen können.95 Solche Chatbots müssen daher kontinuierlich evaluiert und bewertet werden.96

Um den Schwächen und insbesondere der Halluzination von LLMs zu begegnen, setzen Chatbot-Anbieterinnen und Anbieter nun vermehrt auf Retrieval Augmented Generation (RAG). Dabei handelt es sich um eine Technik zur Verarbeitung natürlicher Sprache (NLP97), die die Stärken von regelbasierten und datenbasierten generativen Modellen kombiniert.98 Anders als bei der Generierung von Information (generative99) geht es bei der Beschaffung von Informationen (retrieval) darum, relevante vorhandene Objekte aus einem grossen Datenpool, der kontinuierlich um Dokumente ergänzt werden kann, zu finden.100 Die Kernidee ist dabei, dass eine Anfrage auf einem lokalen Textkorpus durch den Retriever bearbeitet wird und dieser mittels semantischer Suche die relevanten Textsegmente bestimmt.101 Das LLM (der Generator) wird daraufhin aufgefordert, die Anfrage mittels der ihm zur Verfügung gestellten Informationen zu beantworten.102 Sowohl die ursprüngliche Anfrage der Nutzerin oder des Nutzers als auch der vom Retriever abgerufene Kontext werden in die an das LLM gesendete Eingabe eingefügt.103 Das LLM wird u. a. dazu verwendet, die Anfrage umzuformulieren und die Antwort kohärent und strukturiert darzustellen.104 Inwieweit die Fehlerhaftigkeit des LLM dadurch tatsächlich reduziert wird – insbesondere, ob sie gänzlich ausgeschlossen werden kann – ist bislang allerdings unklar.105

II.    Zuständigkeit der Behörde

Der Vertrauensschutz greift grundsätzlich für Auskünfte, die in den Zuständigkeitsbereich derjenigen Behörde fallen, die eine Auskunft erteilt.106 Die Frage der Zuständigkeit wird im Folgenden zuerst allgemein im Hinblick auf den Chatbot-Einsatz betrachtet (C.II.1.) und sodann hinsichtlich datenbasierter Chatbots diskutiert (C.II.2.).

1.    Grundsatz

Nach Lehre und Rechtsprechung genügt es, dass die Privaten in guten Treuen von der Zuständigkeit der Behörde ausgehen.107 Der gute Glaube ist zerstört, wenn die Unzuständigkeit der Behörde offensichtlich, d. h. für die fragende Person eindeutig erkennbar war.108 Die Frage nach der Offensichtlichkeit beurteilt sich jeweils im Einzelfall und richtet sich neben objektiven Gesichtspunkten auch nach subjektiven Kriterien, insbesondere dem persönlichen Hintergrund der fragenden Person.109

Diese Grundsätze ändern sich bei einem Chatbot-Einsatz nicht. Chatbots, die in einem bestimmten Bereich zur Fragebeantwortung eingesetzt werden, müssen technisch so ausgestaltet sein, dass sie nur diejenigen Themen behandeln können, die in ihrem Zuständigkeitsbereich liegen.110 Somit sollen sich die Privaten zumindest in guten Treuen darauf verlassen können, dass der Chatbot nur Antworten aus diesem Zuständigkeitsbereich erteilt.111 Werden Fragen ausserhalb des Zuständigkeitsbereichs gestellt, oder bestehen generell Unklarheiten, so muss der Chatbot auf menschliche Beratung verweisen.112 Insbesondere bei regelbasierten Chatbots sollte dies unproblematisch sein, da sie vorgegebenen Abläufen folgen und nicht über ihre Programmierung hinausgehen.113 Der Zuständigkeitsbereich kann entsprechend mittels einer Kontrolle vor dem Einsatz des Systems eingehegt werden. Bei datenbasierten Chatbots ist hingegen im Folgenden der erweiterte Antwortspielraum zu berücksichtigen.

2.    Herausforderungen bei datenbasierten Chatbots

Bei datenbasierten Chatbots bestimmt grundsätzlich der Informationsgehalt der Trainingsdaten deren Antwortmöglichkeiten.114 Übersteigen die Trainingsdaten den Informationsgehalt des Zuständigkeitsbereichs einer Behörde, ist es demnach möglich, dass der (datenbasierte) Chatbot Auskünfte ausserhalb dieses Zuständigkeitsbereichs erteilt.115 Die Problematik verschärft sich beim Einsatz von LLMs. Ihre Stärke liegt gerade darin, linguistisch plausible Antworten zu liefern, auch wenn sie über keinen Zugang zu entsprechenden Wissensquellen verfügen.116 Wie die Antwort zustande gekommen ist, ist aufgrund der technischen Natur von LLMs dabei nicht nachvollziehbar.117 Ob der Chatbot Antworten ausserhalb des Zuständigkeitsbereichs einer Behörde erteilen wird, kann deshalb nicht abschliessend vor dem Einsatz des Systems kontrolliert werden. Die Antworten können nur überprüft werden, nachdem sie generiert wurden. Diese Kontrolle kann von menschlichen Moderatorinnen und Moderatoren vorgenommen werden; auch auf maschinellem Lernen basierende Algorithmen können zu diesem Zweck eingesetzt werden.118

III.    Vorbehaltlosigkeit der Auskunft

Schutzwürdiges Vertrauen können nur vorbehaltlose Auskünfte begründen.119 Sind die übrigen Voraussetzungen gegeben (siehe insbesondere C.I. und C.II.) und erteilt ein Chatbot die Auskunft ohne Vorbehalt, dann greift demnach der Vertrauensschutz. In der Praxis zeigt sich allerdings bisweilen das Bedürfnis, behördliche Chatbot-Auskünfte mit einem Vorbehalt zu versehen. Ob solche Vorbehalte angebracht werden dürfen, ist dabei fraglich. Eine Analogie zur Praxis bei menschlichen Behördenauskünften liefert keine zufriedenstellenden Anhaltspunkte (C.III.1.). Es sind deshalb weitere Erwägungen anzustellen (C.III.2.-3.).

1.    Grundsatz

Mit einem Vorbehalt bringt die Mitarbeiterin bzw. der Mitarbeiter einer Behörde zum Ausdruck, dass sie bzw. er sich nicht festlegen will.120 Damit soll verhindert werden, dass aus spontanen Äusserungen unmittelbar Rechtswirkungen erwachsen. Dies mag etwa dann gerechtfertigt sein, wenn solche Äusserungen im Rahmen eines persönlichen Gesprächs, eines informellen Telefonats oder aus einem Interview hervorgehen. Die anfragende Person soll sich angesichts eines Vorbehalts nicht mehr auf den Vertrauensschutz berufen können.121 Voraussetzung ist, dass der Vorbehalt erkennbar ist.122  Im Zusammenhang mit Behördenauskünften sind Vorbehalte somit grundsätzlich anerkannt. Allerdings ist die Wirksamkeit dieses ursprünglich privatrechtlichen Motivs123 bislang für Behördenauskünfte nicht abschliessend geklärt.124 Auch gibt es in der Praxis keine Standards für die Ausgestaltung oder Platzierung eines Vorbehalts.125

Die Situation zwischen einer spontanen Auskunftserteilung durch Behördenmitarbeitende ist jedoch nicht mit dem Einsatz von Chatbots vergleichbar. Stellt die Behörde einen Chatbot zur Verfügung, so ist dies eine bewusste Entscheidung. Die Konstellation einer spontanen Auskunft, einer Äusserung im Rahmen eines informellen Gesprächs oder Interviews kann so gar nicht erst entstehen. Vielmehr wird der Chatbot gezielt zur Beantwortung von Fragen eingesetzt. Die Frage-Antwort-Situation ist damit grundsätzlich vorhersehbar, auch wenn nicht alle Fragen an den Chatbot antizipiert werden können. Es ist zwar durchaus nachvollziehbar, dass eine Behörde einen Vorbehalt anbringen möchte, um sich im Falle falscher oder unzutreffender Antworten des Chatbots zu schützen. Ob dies gerechtfertigt werden kann, ist im Folgenden für das Anbringen von pauschalen (C.III.2) und individuellen (C.III.3.) Vorbehalten zu diskutieren.

2.    Pauschale Vorbehalte

Chatbots sollen gegenüber der traditionellen Behördenauskunft eine gleichwertige bzw. gleich verlässliche Alternative bieten. Dies gilt insbesondere, wenn ein Chatbot die traditionellen Kommunikationskanäle ganz oder teilweise ersetzen126 und die Behörde damit entlasten127 soll. Wird ein pauschaler Vorbehalt für alle Anfragen bzw. alle Antworten des Chatbots angebracht, so müssten Private, wenn sie eine verlässliche Auskunft erhalten wollen, einen Mehraufwand auf sich nehmen und weitere Quellen oder doch noch die Behörde konsultieren. Tatsächlich wäre es für jene Personen, die sich vorgängig mit dem Chatbot beschäftigen gegenüber jenen, die sich direkt an die Behörde wenden, schwieriger, an vertrauenswürdige Informationen zu kommen.128 Dies würde im Widerspruch zum Grundgedanken der Entlastung der traditionellen Kommunikationskanäle stehen.129 Hinzu kommt, dass mit einer Zunahme von Chatbots immer weniger Kapazitäten für den direkten Austausch mit den Behördenmitarbeitenden zur Verfügung stehen dürften.130 Es ist daher fraglich, wie sinnvoll es überhaupt ist, einen «digitalen Verwaltungsassistenten»131 zur Verfügung zu stellen, an den sich die Fragesuchenden richten sollen, auf dessen Auskünfte sie sich aber nicht verlassen können. 

Eine Rechtfertigung für das Anbringen von pauschalen Vorbehalten bezüglich der Korrektheit der erteilten Auskünfte ist weder bei regelbasierten noch bei datenbasierten Chatbots ersichtlich. Die öffentliche Verwaltung schuldet der Bevölkerung bereits bei ihrem allgemeinen Internetauftritt ein erhöhtes Sorgfaltsmass.132 Private sollen sich möglichst einfach und rasch über die Rechtslage informieren und sich auf die zur Verfügung gestellten Informationen verlassen können.133 Dies gilt auch beim Einsatz von Chatbots. 
Denkbar bzw. zulässig erscheint hingegen, im Zusammenhang mit einem Chatbot zu präzisieren, was dieser leisten kann und was nicht. So erscheint beim baselstädtischen Migrationsamt-Chatbot auf Nachfrage hin die Information, dass der Chatbot nur generelle Antworten liefern kann. 134 Für einzelfallrelevante Informationen wird auf die Massgeblichkeit des Gesetzestextes verwiesen. 

3.    Vorbehalte bei individuellen Auskünften

Datenbasierte Chatbots können viel differenzierter antworten als regelbasierte Chatbots, da sie weitreichendere Dialogelemente verarbeiten können.135 Datenbasierte Chatbots sind daher nicht starr an eine vordefinierte Antwortphrase gebunden und können spezifischer auf den Einzelfall bezogene Einschätzungen abliefern.136 Wie bei behördlichen Auskünften durch einen Menschen137 spricht diese konkrete Natur der Chatbot-Auskunft eher für die Möglichkeit, einen Vorbehalt im Einzelfall anbringen zu können.138 Überdies kann auch der Datenverarbeitungsprozess dazu führen, dass ein Vorbehalt bei datenbasierten Chatbot-Auskünften eher zulässig sein könnte, als bei regelbasierten. Bereits die Tatsache, dass datenbasierte Chatbots wahrscheinlichkeitsbasiert Auskünfte erteilen und jeweils diejenige Antwort auf eine Frage gegeben wird, die aufgrund der Berechnungen als am wahrscheinlichsten bezeichnet wurde,139 führt dazu, dass die Chatbot-Antworten unter Umständen nicht korrekt sind. 

Bei komplexen rechtlichen Anfragen kann es zudem durch kommunikative Missverständnisse, unvollständige oder falsche Trainingsdaten oder gar Missbrauch zu fehlerhaften Aussagen der Chatbots kommen.140 Aufgrund dieser Fehleranfälligkeit und im Interesse des Schutzes der Privaten vor übereiltem Handeln scheint ein Vorbehalt im entsprechenden Bereich bzw. im Einzelfall eher gerechtfertigt.141 Allerdings würde diesfalls die Verantwortung für den Erhalt einer korrekten Auskunft auf die Privaten überwälzt. Es erscheint bedenklich, dass es den öffentlichen Organen ermöglicht werden soll, sich von der Verantwortung bezüglich der wohlbekannten Risiken zu entbinden.142 Es ist daher vielmehr dafür zu plädieren, dass unkontrollierbare bzw. risikobehaftete Chatbots gar nicht erst zur behördlichen Auskunftserteilung eingesetzt werden. Ein Vorbehalt vermag die Fehleranfälligkeit von Chatbots nicht zu kompensieren.

IV.    Weitere Anforderungen

Schliesslich werden weitere Anforderungen an den Vertrauensschutz gestellt. Diese können bei einem Chatbot-Einsatz allerdings nicht weniger gut eingehalten werden als bei menschlichen behördlichen Auskünften. Damit der Vertrauensschutz greift, muss die anfragende Person aufgrund der Auskunft Dispositionen getroffen oder unterlassen haben, die sich nicht ohne negative Konsequenzen rückgängig machen oder nachholen lassen (Vertrauensbetätigung).143 Die Art der Auskunft, d. h. ob diese von einem Menschen oder einem Chatbot erteilt wird, wirkt sich auf diese Voraussetzung nicht aus.144 Ausserdem dürfen sich der Sachverhalt sowie die Gesetzgebung nachträglich nicht verändert haben, ansonsten sind die Behörden nicht mehr an die erteilte Auskunft gebunden.145 Schliesslich bedarf es einer Interessenabwägung zwischen dem Schutz des Vertrauens in die unrichtige Auskunft und dem Interesse an der richtigen Rechtsanwendung.146 Auch diese Voraussetzungen bleiben durch einen Chatbot-Einsatz unberührt. 

D.    Fazit

Es hat sich gezeigt, dass Private auch beim Einsatz von Chatbots grundsätzlich in ihrem Vertrauen auf behördliche Auskünfte zu schützen sind. Zu den Risiken eines Chatbot-Einsatzes gehört die Fehleranfälligkeit von datenbasierten Chatbots, insbesondere beim Einsatz von LLMs. Es werden zwar Methoden entwickelt, um die Fehleranfälligkeit zu minimieren. Damit lassen sich die Risiken jedoch nicht vollständig ausschliessen. Diese Risiken sind nach der hier vertretenen Auffassung grundsätzlich von der Behörde zu tragen, die Chatbots einsetzt, und nicht von der Person, die sich mit einer Frage an den Chatbot wendet. Insbesondere ist es nicht vertretbar, durch pauschale Vorbehalte gegenüber der Richtigkeit von Chatbot-Auskünften einen Interaktionskanal zwischen Behörden und Privaten zu schaffen, der die Verlässlichkeit der Auskunft von vornherein ausschliesst. Dies gilt umso mehr, wenn die Auskunft auf die rechtliche Orientierung Privater abzielt. Denn Private sollen grundsätzlich auf die Richtigkeit behördlicher Auskünfte vertrauen können. Vorbehalte im Einzelfall gegenüber datenbasierten Auskünften von Chatbots erscheinen demgegenüber eher zulässig. Stossend ist aber wiederum deren Fehleranfälligkeit. Deshalb ist nicht jede Art von Chatbot für die Auskunftserteilung geeignet. Insbesondere bei LLM-basierten Chatbots ist grosse Vorsicht geboten.

___

Die Autorinnen danken Dr. Christian Ulbrich und MLaw Jonas Klemperer von der Forschungsstelle für Digitalisierung in Staat und Verwaltung an der Universität Basel sowie Daniel Brugger und Dr. Jan Nicklaus, die Betreiber von Frag den Onlinekommentar, herzlich für den anregenden Austausch und die wertvollen Hinweise. Der Beitrag entstand im Rahmen des von der Mercator Stiftung geförderten Projekts «Nachvollziehbare Algorithmen: ein Rechtsrahmen für Künstliche Intelligenz» (https://ius.unibas.ch/de/e-piaf/nachvollziehbare-algorithmen/). Die Internetquellen im vorliegenden Beitrag wurden zuletzt am 14. Mai 2024 abgerufen.

  • 1. Siehe https://www.masswerk.at/elizabot/.
  • 2. Vibhor Sharma/Monika Goyal/Malik Drishti, An Intelligent Behaviour Shown by Chatbot System, International Journal of New Technology and Research, 2017, S. 52 ff., S. 52.
  • 3. Alexander Hoffmann, Chatbots: Einführung in die Zukunft von Marketing, PR und CRM, Haar bei München 2019, S. 19.
  • 4. Beate Bruns/Cäcilie Kowald, Praxisleitfaden Chatbots: Conversation Design für eine bessere User Experience, Wiesbaden 2023, S. 6 f. Ausführlich zur Geschichte von Chatbots Eleni Adamopoulou/Moussiades Lefteris, Chatbots: History, technology, and applications, Machine Learning with Applications 2/2020, Nr. 100006; Robert Dale, The return of the chatbots, Natural Language Engineering 2016, S. 811 ff., S. 814; Toni Stucki/Sara D’Onofrio/Edy Portmann, Chatbots gestalten mit Praxisbeispielen der Schweizerischen Post, Wiesbaden 2020, S. 2 ff, S. 35.
  • 5. «GPT» steht für «Generative Pre-trained Transformer», auf Deutsch: «Generativer Transformer mit Vortraining», siehe dazu Marcel Waldvogel, Wie funktioniert eigentlich ChatGPT?, dnip vom 30.01.2023, siehe https://dnip.ch/2023/01/30/wie-funktioniert-eigentlich-chatgpt/.
  • 6. Bevölkerungsdienste und Migration Kanton Basel-Stadt, siehe https://www.bdm.bs.ch/Wohnen/ausweis-im-kreditkartenformat.html.
  • 7. Aargau: Chatbot «Maxi», siehe https://www.sva-ag.ch/pv. St. Gallen: SVA St. Gallen, Der IPV-Chatbot, siehe https://www.svasg.ch/news/meldungen/ipv-chatbot.php.
  • 8. Basel-Stadt: Bevölkerungsdienste und Migration, siehe https://www.bdm.bs.ch/Zivilstand.html. Luzern: Regionales Zivilstandsamt, siehe https://www.stadtluzern.ch/politikverwaltung/stadtverwaltung/dienstabtei...
  • 9. Schweizerisches Bundesarchiv, Beratung, siehe https://www.bar.admin.ch/bar/de/home/recherche/suchen/beratung.html. Zum Chatbot siehe https://chatbot.bar.smartive.cloud/.
  • 10. Bundesamt für Statistik, StatBot.swiss: mit offenen Daten diskutieren, siehe https://www.bfs.admin.ch/bfs/de/home/dscc/blog/2023-02-statbot.html.
  • 11. Eidgenössisches Stiftungsaufsicht, Frag Esi, siehe https://www.fragesi.ch/.
  • 12. Exemplarisch sei auf das am 1. Januar 2024 in Kraft getretene Bundesgesetz über den Einsatz elektronischer Mittel zur Erfüllung von Behördenaufgaben (EMBAG) vom 17. März 2023 (SR 172.019) hingewiesen. Siehe zur allgemeinen Verwaltungsdigitalisierung auch Christian R. Ulbrich/Bruno S. Frey, Automated Democracy – Die Neuverteilung von Macht und Einfluss im digitalen Staat, Freiburg i. B. 2024.
  • 13. Z. B. «ZüriCityGPT», der mit Daten der Domain stadt-zuerich.ch trainiert wurde, der aber nicht mit der Stadt Zürich assoziiert ist, siehe https://zuericitygpt.ch/. Siehe auch für Genf https://geneva.gpt.liip.ch/ oder Lausanne https://lausanne.gpt.liip.ch/. Eine Übersicht liefert Christian Stocker, Swiss Government Chatbots, siehe https://github.com/liip/SwissGovernmentChatbots.
  • 14. Bruns/Kowald (Fn. 4), S. 1 f.
  • 15. Fabia Stöcklin, Robot Recruiting: Die Haftung des Arbeitgebers für Persönlichkeitsverletzungen beim Einsatz von Künstlicher Intelligenz im Bewerbungsprozess, sui generis 2023, S. 2, siehe https://sui-generis.ch/article/view/4045.
  • 16. Sog. Voicebots können demgegenüber die Spracheingabe in Textbausteine umwandeln und die Textantwort des Bots als gesprochene Sprache wiedergeben, siehe dazu Nadja Braun Binder et al., Einsatz Künstlicher Intelligenz in der Verwaltung: rechtliche und ethische Fragen, Schlussbericht vom 28. Februar 2021 zum Vorprojekt IP6.4 (zit. Braun Binder et al., Studie 2021), S. 57, siehe https://www.zh.ch/de/news-uebersicht/medienmitteilungen/2021/04/kuenstli....
  • 17. Terminologie angelehnt an Ulrich Häfelin/Georg Müller/Felix Uhlmann, Allgemeines Verwaltungsrecht, 8. A., Zürich 2020, Rz. 624 ff. Der Vertrauensschutz gilt für natürliche und juristische Personen gleichermassen, weshalb im vorliegenden Beitrag der umfassende Begriff «Private» verwendet wird.
  • 18. Zu den verschiedenen digitalen Umgebungen siehe C.I.2.
  • 19. Terminologie angelehnt an Stucki/D’Onofrio/Portmann (Fn. 4), S. 7; siehe auch Ulbrich/Frey (Fn. 12), S. 200 ff.
  • 20. Wenn (if) A dann (then) B, siehe Christoph Beierle/Gabriele Kern-Isberner, Methoden wissensbasierter Systeme, 3. A., Wiesbaden 2006, S. 71 ff.
  • 21. Julia Lehmann, Der Chatbot-Guide, in: Stefan Detscher (Hrsg.), Digitales Management und Marketing, Wiesbaden 2021, S. 306 ff., S. 309 ff.
  • 22. Stucki/D’Onofrio/Portmann (Fn. 4), S. 7.
  • 23. Steuern Kanton Schwyz, siehe https://www.sz.ch/behoerden/verwaltung/finanzdepartement/steuerverwaltun....
  • 24. Lehmann (Fn. 21), S. 310 f.
  • 25. Stucki/D’Onofrio/Portmann (Fn. 4), S. 7.
  • 26. Torsten Deutsch, Fake KI – welcher Algorithmus ist wirklich intelligent?, BigData Insider 18.08.2021, siehe https://www.bigdata-insider.de/fake-ki-welcher-algorithmus-ist-wirklich-....
  • 27. Migrationsamt des Kantons Zürich, siehe https://www.zh.ch/de/sicherheitsdirektion/migrationsamt.html.
  • 28. Lehmann (Fn. 21), S. 311 ff.
  • 29. Stucki/D’Onofrio/Portmann (Fn. 4), S. 7.
  • 30. Siehe etwa Torsten Deutsch/Ralf Hülsmann, Fake-KI: Nicht jeder Algorithmus ist intelligent, Digitale Welt 2021, S. 16 ff.
  • 31. Stucki/D’Onofrio/Portmann (Fn. 4), S. 7.
  • 32. Hartmut Ernst/Jochen Schmidt/Gerd Beneken, Grundkurs Informatik, 7. A., Wiesbaden 2020, S. 801 ff.; Wolfgang Ertel, Grundkurs Künstliche Intelligenz, 4. A., Wiesbaden 2016, S. 265 ff.
  • 33. Ernst/Schmidt/Beneken (Fn. 32), S. 801 ff.
  • 34. Künstliche neuronale Netze sind durch biologische Prozesse inspiriert und werden insb. bei der Erkennung von Mustern und komplexen Zusammenhängen in Daten eingesetzt. Zum Begriff z. B. Michael Oettinger, Data Science, 2. A., Hamburg 2020, S. 119 ff.
  • 35. Siehe Oettinger (Fn. 34), S. 112 ff., S. 119 ff.
  • 36. Big Data enthält i. d. R. unstrukturierte oder semi-strukturierte Daten, die anhand der Dimensionen «volume» (enorme Datenmenge), «velocity» (hohe Generierungs- und Verarbeitungsgeschwindigkeit) und «variety» (Vielfältigkeit der Datentypen und -quellen) beschrieben werden, siehe nur Ronald Bachmann, Big Data – Fluch oder Segen?, Heidelberg/München 2014, S. 17 ff.
  • 37. Ernst/Schmidt/Beneken (Fn. 32), S. 801 ff.
  • 38. Peter Ringeisen/Andrea Bertolosi-Lehr/Labinot Demaj, Automatisierung und Digitalisierung in der öffentlichen Verwaltung: digitale Verwaltungsassistenten als neue Schnittstelle zwischen Bevölkerung und Gemeinwesen, in: Swiss Yearbook of Administrative Sciences 2018, S. 51 ff., S. 55; Braun Binder et al., Studie 2021 (Fn. 16), S. 57; Stucki/D’Onofrio/Portmann (Fn. 4), S. 7.
  • 39. Ulbrich/Frey (Fn. 19), S. 201 f.
  • 40. Stucki/D’Onofrio/Portmann (Fn. 4), S. 7. Zur Manipulation der Datenbasis siehe C.I.3.a.
  • 41. Braun Binder et al., Studie KI 2021 (Fn. 16), S. 27.
  • 42. Chatbot der Stadtverwaltung St. Gallen, siehe https://www.stadt.sg.ch/news/stsg_home/2020/12/chatbot.html.
  • 43. Künftig soll der Bot auch selbstständig Prozesse abwickeln können, siehe Braun Binder et al., Studie 2021 (Fn. 16), S. 27.
  • 44. Geschäftsstelle CNAI, Projektsteckbriefe Kompetenznetzwerk CNAI, Version 4.0 vom 11.04.2023, S. 8 f., siehe https://cnai.swiss/wp-content/uploads/2023/04/CNAI_Projekte_D_4_0.pdf.
  • 45. Siehe A.
  • 46. Auf Deutsch: Grosse Computermodelle zur Sprachverarbeitung.
  • 47. Siehe etwa Philipp Hacker/Andreas Engel/Marco Mauer, Regulating ChatGPT and other Large Generative AI Models, Working Paper May 12 2023, https://arxiv.org/abs/2302.02337, S. 2 ff. Weitere Beispiele stellen etwa Google Bard oder GPT NEO dar. LLMs werden allerdings bereits seit Jahren entwickelt, es ist die Menge der zur Verfügung stehenden Trainingsdaten, die den Systemen zum Durchbruch verholfen hat, siehe Eva A. M. van Dis et al., ChatGPT: five priorities for research, Nature 2023, S. 224 ff., S. 224.
  • 48. Stucki/D’Onofrio/Portmann (Fn. 4), S. 3.
  • 49. Steffen Albrecht, ChatGPT und andere Computermodelle zur Sprachverarbeitung – Grundlagen, Anwendungspotenziale und mögliche Auswirkungen, Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag, Berlin 2023, S. 20, siehe https://www.bundestag.de/resource/blob/944148/30b0896f6e49908155fcd01d77...
  • 50. Albrecht (Fn. 49), S. 20.
  • 51. Albrecht (Fn. 49), S. 20.
  • 52. Siehe dazu Alexander Wehde, Regulierung von Large Language Models in DSA und AIA-E, MMR 2023, Nr. 455171.
  • 53. Siehe A.
  • 54. Dazu zählen die Webseite der ESA (https://www.edi.admin.ch/edi/de/home/fachstellen/eidgenoessische-stiftun...), Kommentierungen aus dem Onlinekommentar zum Stiftungsrecht (https://onlinekommentar.ch/de/kommentare) und der Swiss Foundation Code (https://www.swissfoundations.ch/publikationen/swiss-foundation-code-2021/).
  • 55. Albrecht (Fn. 49), S. 22.
  • 56. Siehe zu generativen algorithmischen (KI-)Systemen etwa Natali Helberger/Nicholas Diakopoulos, ChatGPT and the AI Act, Internet Policy Review 16.02.2023, siehe https://policyreview.info/essay/chatgpt-and-ai-act; Luciando Floridi, AI as Agency Without Intelligence: on ChatGPT, Large Language Models, and Other Generative Models, Philosophy & Technology 2023, S. 14 ff.
  • 57. Elisabeth Chiariello, Treu und Glauben als Grundrecht nach Art. 9 der schweizerischen Bundesverfassung, Diss. Bern 2004, S. 27; René Rhinow/Markus Schefer/Peter Uebersax, Schweizerisches Verfassungsrecht, 3. A., Basel 2016, Rz. 1996.
  • 58. Häfelin/Müller/Uhlmann (Fn. 17), Rz. 624, Rz. 627 ff.; Rhinow/Schefer/Uebersax (Fn. 57), Rz. 1998 ff.; Pierre Tschannen/Ulrich Zimmerli/Markus Müller, Allgemeines Verwaltungsrecht, 4. A., Bern 2014, § 22 N 478.
  • 59. BGE 132 II 218 E. 6.1, 6.2 S. 228 ff.; BGE 132 II 21 E. 2.2 S. 25 f.
  • 60. Häfelin/Müller/Uhlmann (Fn. 17), Rz. 668.
  • 61. Siehe Tschannen/Zimmerli/Müller (Fn. 58), § 22 N 15; Pierre Tschannen/Markus Müller/Markus Kern, Allgemeines Verwaltungsrecht, 5. A., Bern 2022, Rz. 489; BSK BV-Tschentscher, Art. 9 N 16, in: Bernhard Waldmann/Eva Maria Belser/Astrid Epiney (Hrsg.), Bundesverfassung, Basler Kommentar, Basel 2015 (zit. BSK BV-Verfasser:in); BGE 143 V 341 E. 5.2.1 S. 346 f.; BGE 143 V 95 E. 3.6.2 S. 103; BGE 131 II 627 E. 6.1 S. 363 f.; BGE 125 I 267 E. 4b S. 274 f.; kritisch Beatrice Weber-Dürler, Neuere Entwicklung des Vertrauensschutzes, ZBl 2002 (zit. Neuere Entwicklung), S. 281 ff.; Giovanni Biaggini, BV Kommentar, 2. A., Zürich 2017, Art. 9 N 15; Chiariello (Fn. 57), S. 42.
  • 62. Tschannen/Zimmerli/Müller (Fn. 58), § 22 N 15; Tschannen/Müller/Kern (Fn. 61), Rz. 489; BSK BV-Tschentscher (Fn. 61) Art. 9 N 18; Pierre Moor/Alexandre Flückiger/Vincent Mertenet, Droit administratif. Vol. I, Les fondements, 3. A., Bern 2012, S. 924.
  • 63. Häfelin/Müller/Uhlmann (Fn. 17) Rz. 669; siehe auch BGE 129 II 125 E. 5.6 S. 140 f.; Weber-Dürler, Neuere Entwicklungen (Fn. 61), S. 295.
  • 64. Häfelin/Müller/Uhlmann (Fn. 17) Rz. 669.
  • 65. Eine allgemeine Auskunft stellt hingegen keine hinreichende Vertrauensgrundlage dar, wenn sie etwa Dritten erteilt wird und durch diese weiter übermittelt wird, siehe Häfelin/Müller/Uhlmann (Fn. 17) Rz. 669.
  • 66. Weber-Dürler, Neuere Entwicklungen (Fn. 61), S. 295, forderte bereits 2002, Merkblätter vermehrt als taugliche Vertrauensgrundlage anzuerkennen, dafür betreffend die weiteren Voraussetzungen des Vertrauensschutzes einen strengeren Massstab zu setzen.
  • 67. Chiariello (Fn. 57), S. 43.
  • 68. Felix Uhlmann/Jasna Stojanovic, Vertrauen im Finanzmarktrecht aus öffentlich-rechtlicher Sicht, SZW 2017, S. 732 ff., S. 736; Pascal Hauenstein/Jonas Klemperer, Vertrauensschutz bei behördlichem Webauftritt, AJP 2023, S. 871 ff., S. 873 f.
  • 69. Die Tauglichkeit als Vertrauensgrundlage bejahend insb. die kantonale Rechtsprechung, etwa Verwaltungsgericht Graubünden, R 09 105, 16.3.2010, E. 1–3a; Versicherungsgericht Solothurn, VSBES.2013.159, 30.1.2014, E. 2.3.2., ferner auch BVGer, A-2575/2017, 14.1.2019, E. 3.4.1.; aufgrund der konkreten Umstände des Einzelfalles verneinend dagegen BGer, 1C_703/2020, 13.10.2022, E. 6.3; BGer, 2C_407/2012, 23.11.2012, E. 3.3; BVGer, B-5869/2014, 30.10.2017, E. 3.1.3; Verwaltungsgericht St. Gallen, B 2022/128, 16.1.2023, E. 4; Kantonsgericht Basel-Land, 715 16 233/49, 15.2.2017, E. 4.
  • 70. Braun Binder et al., Studie 2021 (Fn. 16), S. 61. Dem Grundsatz nach auch: Tschannen/Zimmerli/Müller (Fn. 58), § 22 N 15; BSK BV-Tschentscher (Fn. 61), Art. 9 N 16.
  • 71. Siehe B.II.2.
  • 72. Siehe B.II.1.
  • 73. Z. B. der Chatbot des Kantons Schwyz, der auf der Kantonswebseite Informationen zum Thema Steuern erteilt, siehe https://www.sz.ch/behoerden/verwaltung/finanzdepartement/steuerverwaltun....
  • 74. Siehe z. B. die Schweizerische Post, die im Bereich PostNetz im Jahre 2017 eine Studie zum Thema Smart Assistent startete. Als Ergebnis der Studie wurde ein Chatbot-Prototyp über den Kanal Facebook-Messenger zur Verfügung gestellt, der den Kundinnen und Kunden Auskünfte zu den Filialen, Öffnungszeiten und zum Lieferstatus von Sendungen erteilen kann (Stucki/D’Onofrio/Portmann (Fn. 4), S. 13). Auch der Chatbot der SVA St. Gallen wurde ebenfalls über Facebook-Messenger eingesetzt, um Fragen rund um die individuelle Prämienverbilligung zu beantworten, siehe Braun Binder et al., Studie 2021 (Fn. 16), S. 61.
  • 75. Abgesehen von der Frage nach den Auswirkungen auf den Vertrauensschutz würde das Angebot der staatlichen Dienstleistungen auch Fragen des anwendbaren Rechts in Bezug auf den Datenschutz aufwerfen. Der Anspruch auf eine datenschutzrechtskonforme Ausgestaltung der Chatbots könnte allenfalls in Konflikt mit den individuellen Datenschutzrichtlinien und Nutzungsbedingungen der entsprechenden Plattformen treten, Ringeisen/Bertolosi-Lehr/Demaj (Fn. 38), S. 61; Roger Plattner, Digitales Verwaltungshandeln, Diss. Zürich 2021, Rz. 518.
  • 76. Im Grundsatz auch Ringeisen/Bertolosi-Lehr/Demaj (Fn. 38), S. 61.
  • 77. Anderer Ansicht Hauenstein/Klemperer (Fn. 68), S. 877, die für eine differenzierte Lösung plädieren.
  • 78. Siehe B.II.2.a.
  • 79. Norwegian Consumer Council, Ghost in the machine – Addressing the consumer harms of generative AI, Juni 2023, S. 22, siehe https://storage02.forbrukerradet.no/media/2023/06/generative-ai-rapport-... Hacker/Engel/Mauer (Fn. 47), S. 2. Es kommt das verstärkte Problem hinzu, dass unweigerlich immer häufiger Datensätze zum Training verwendet werden, die durch andere «KI»-Systeme erstellt wurden, was sich ebenfalls negativ auf die Qualität der Chatbot-Antworten auswirkt, siehe Erich Moechel, Künftige KI-Modelle potenziell von Demenz bedroht, heise vom 07.07.2023, siehe https://www.heise.de/news/Kuenftige-KI-Modelle-potenziell-von-Demenz-bed....
  • 80. Hacker/Engel/Mauer (Fn. 47), S. 2. Es wird grundsätzlich von verschiedenen Seiten gefordert, Qualitätsstandards für algorithmische Systeme gesetzlich festzulegen und – etwa in einem Register – die Daten öffentlich zugänglich zu machen. Siehe dazu Jeremy Stevens, Datenqualität bei algorithmischen Entscheidungen, CR 2020, S. 73 ff., S. 74; AlgorithmWatch, Ein KI-Transparenzregister für die öffentliche Verwaltung, Konzeptpapier 2023, siehe https://algorithmwatch.org/de/wp-content/uploads/2023/03/Konzept_KI-Tran....
  • 81. Rechtlich festgelegte Qualitätsmessstandards wird es für Daten wohl aber nicht allzu bald geben, siehe Liliane Obrecht/David Starchl, Tagungsbericht zur Veranstaltung Open Government Data und Verpflichtung zur Gewährung des Datenzugangs an den Staat, Jusletter 24.10.2022, Rz. 15.
  • 82. Philipp Hacker/Lauri Wessel, KI-Trainingsdaten nach dem Verordnungsentwurf für Künstliche Intelligenz, in: Bundesministerium für Umwelt, Naturschutz, nukleare Sicherheit und Verbraucherschutz/Frauke Rostalski (Hrsg.), Künstliche Intelligenz, Tübingen 2022, S. 54 ff., S. 54 f.
  • 83. Albrecht (Fn. 49), S. 69.
  • 84. Kai Greshake et al., Not what you’ve signed up for: Compromising Real-World LLM-Integrated Applications with Indirect Prompt Injection, eprint arXiv 2023, S. 2, siehe https://ui.adsabs.harvard.edu/abs/2023arXiv230212173G/abstract.
  • 85. Sog. «Jailbreaks», etwa die Aufforderung zu Gewalt (siehe dazu die Ausführungen sogleich). Für Beispiele siehe Fangzhao Wu et al., Defending ChatGPT against jailbreak attack via self-reminder, nature machine intelligence 2023, S. 1486 ff., siehe https://www.nature.com/articles/s42256-023-00765-8.
  • 86. Greshake et al. (Fn. 84), S. 2.
  • 87. Für aktuelle Beispiele von Jailbreaks siehe https://www.jailbreakchat.com/.
  • 88. Siehe etwa James Vincent, Twitter taught Microsoft’s AI chatbot to be a racist asshole in less than a day, The Verge, 24.03.2016, siehe https://www.theverge.com/2016/3/24/11297050/tay-microsoft-chatbot-racist; siehe auch Plattner (Fn. 78), Rz. 519.
  • 89. Zihao Li, The Dark Side of ChatGPT: Legal and Ethical Challenges from Stochastic Parrots and Hallucination, arXiv 2023, siehe https://arxiv.org/abs/2304.14347; Hussam Alkaissi/Samy I. McFarlane, Artificial Hallucinations in ChatGPT: Implications in Scientific Writing, Cureus 2023, siehe https://assets.cureus.com/uploads/editorial/pdf/138667/20230219-28928-6k... Gernot Beutel/Eline Geerits/Jan T. Kielstein, Artificial hallucination: GPT on LSD, Critical Care 2023, siehe https://link.springer.com/article/10.1186/s13054-023-04425-6.
  • 90. Zur Begriffsbestimmung und dem Stand der Forschung siehe Ziwei Ji et al., Survey of Hallucination in Natural Language Generation, ACM Computing Surveys 2022, S. 1 ff. Im Unterschied zum aus der Humanpsychologie verwendeten Term der Halluzination, der auf eine menschliche Sinneswahrnehmung, die nicht mit der Aussenwelt in Verbindung gebracht werden kann, abstellt. Zur Kritik an der Verwendung psychologischer Begriffe im Kontext von neuen Technologien Henry Shevlin/Marta Halina, Apply rich psychological terms in AI with care, nature machine intelligence 2019, S. 165 ff.
  • 91. van Dis et al. (Fn. 47), S. 224. Es handelt sich dabei um eine Frage des Designs des Chatbots, siehe Carl Bergstrom, Your chatbot is not «hallucinating», post.news 2023, siehe https://post.news/@/user/2Lr2DCy9lQz0pbzrVwrtgBD6I81.
  • 92. Albrecht (Fn. 49), S. 40 f. Beispiele aus dem juristischen Bereich zeigen Matthew Dahl et al., Hallucinating Law: Legal Mistakes with Large Language Models are Pervasive, Stanford University 2024, siehe https://hai.stanford.edu/news/hallucinating-law-legal-mistakes-large-lan....
  • 93. Pegah Maham/Sabrina Küspert, Governing General Purpose AI, Stiftung Neue Verantwortung, Juli 2023, S. 21, siehe https://www.stiftung-nv.de/sites/default/files/snv_governing_general_pur.... Beispiele (allerdings spezifisch im Kontext von ChatGPT) finden sich bei Bernard Marr, ChatGPT: What Are Hallucinations And Why Are They A Problem For AI Systems?, Bernard Marr & Co. 22. 03. 2023, siehe https://bernardmarr.com/chatgpt-what-are-hallucinations-and-why-are-they....
  • 94. Maham/Küspert (Fn. 93), S. 26. So sieht dies etwa das Bundesamt für Sicherheit in der Informationstechnik (BSI) in Deutschland als eine der grössten Herausforderungen beim Einsatz von LLMs, siehe dazu BSI, Indirect Prompt Injections – Intrinsische Schwachstelle in anwendungsintegrierten KI-Sprachmodellen, Version 1.0 vom 18.07.2023, siehe https://www.bsi.bund.de/SharedDocs/Cybersicherheitswarnungen/DE/2023/202....
  • 95. Lingjiao Chen/Matei Zaharia/James Zou, How is ChatGPT's behavior changing over time?, arXiv Nr. 2307.09009, https://arxiv.org/pdf/2307.09009.pdf.
  • 96. Chen/Zaharia/Zou (Fn. 95), S. 14 f.
  • 97. Siehe bereits oben B.II.2.b.
  • 98. Ivan Ilin, Advanced RAG Techniques: an Illustrated Overview, Towards AI, 17.12.2023, siehe https://pub.towardsai.net/advanced-rag-techniques-an-illustrated-overvie....
  • 99. Siehe B.II.2.b.
  • 100. Penghao Zhao et al., Retrieval-Augmented Generation for AI-Generated Content: A Survey, arxiv 29.02.2024, S. 1, siehe https://arxiv.org/abs/2402.19473. Die Autoren sprechen von einem «adaptable data repository» (Deutsch für «anpassungsfähigen Datenspeicher»).
  • 101. Zhao et al.(Fn. 100), S. 1.
  • 102. Zhao et al. (Fn. 100), S. 3.
  • 103. Michael McTear/Marina Ashurkina, Transforming Conversational AI: Exploring the Power of Large Language Models in Interactive Conversational Agents, Berkeley 2024, S. 66; Zhao et al. (Fn. 100), S. 3.
  • 104. Zhao et al. (Fn. 100), S. 3 f.
  • 105. Zhao et al. (Fn. 100), S. 1, betonen, dass die Herausforderungen, die der Einsatz von LLMs mit sich bringt, durch RAG gemildert, wenn auch nicht vollständig gelöst werden können.
  • 106. Häfelin/Müller/Uhlmann (Fn. 17), Rz. 676 ff.; Chiariello (Fn. 57), S. 49.
  • 107. BSK BV-Tschentscher (Fn. 61), Art. 9 N 16; Häfelin/Müller/Uhlmann (Fn. 17), Rz. 677; Chiariello (Fn. 57), S. 49; siehe BGE 101 Ia 92 E. 3b S. 100.
  • 108. Chiariello (Fn. 57), S. 49; Häfelin/Müller/Uhlmann (Fn. 17), Rz. 864.
  • 109. Häfelin/Müller/Uhlmann (Fn. 17), Rz. 676 f.; siehe Chiariello (Fn. 57), S. 50. So sind regelmässig höhere Anforderungen an fachkundige Personen – etwa mit juristischem Hintergrund – zu stellen, siehe auch Hauenstein/Klemperer (Fn. 68), S. 878.
  • 110. Bei regelbasierten Chatbots können Auskünfte ausserhalb des Zuständigkeitsbereiches bereits in der Programmierung verhindert werden, indem keine entsprechenden Informationsgrundlagen zur Verfügung gestellt werden. Bei Unklarheit soll auf menschliche Beratung verwiesen werden, Plattner (Fn. 78), Rz. 521. Bei datenbasierten Chatbots, insb. LLMs, kann versucht werden, durch sog. fine tuning entsprechende Auskünfte zu verhindern, siehe Daniel M. Ziegler et al., Fine-Tuning Language Models from Human Preferences, arxiv: 1909.08593, siehe https://arxiv.org/abs/1909.08593.
  • 111. Braun Binder et al., Studie 2021 (Fn. 16), S. 61; Plattner (Fn. 78), Rz. 521. Dies ist ein weiteres Argument, weshalb die aktuelle «Generation» generativer Chatbots nicht zur behördlichen Auskunftserteilung eingesetzt werden können soll.
  • 112. Plattner (Fn. 78), Rz. 521.
  • 113. Siehe B.II.1.
  • 114. Siehe B.II.2.
  • 115. Siehe B.II.2.a.
  • 116. Siehe B.II.2.b.
  • 117. Siehe B.II.2.b.
  • 118. Siehe auch Hacker/Engel/Mauer (Fn. 47), S. 3.
  • 119. Häfelin/Müller/Uhlmann (Fn. 17), Rz. 682; Tschannen/Müller/Kern (Fn. 61), Rz. 682.
  • 120. BGE 98 Ia 460 E. 2 S. 462 f.; Braun Binder et al., Studie 2021 (Fn. 16), S. 61.
  • 121. Braun Binder et al., Studie 2021 (Fn. 16), S. 61; Häfelin/Müller/Uhlmann (Fn. 17), Rz. 670, Rz. 682; Uhlmann/Stojanovic (Fn. 68), S. 737.
  • 122. Denkbar ist ein Hinweis auf der Plattform in der Nähe des Zugangs zum Chatbot. Der Chatbot könnte ebenfalls im Sinne einer Eröffnungsfloskel den Vorbehalt selbst in den Dialog einbringen. Weniger klar ist, ob die Erkennbarkeit gegeben ist, wenn der Vorbehalt nicht proaktiv bei der Benutzung des Chatbots eingeblendet wird, sondern auf der Plattform, über die er zur Verfügung gestellt wird, gesucht werden muss (bspw. unter «Rechtliches», oder «Nutzungshinweise»), m. w. H. Hauenstein/Klemperer (Fn. 68), S. 878, insb. Fn. 72. Da aus öffentlich-rechtlicher Perspektive das konsensuelle Element des (privatrechtlichen) Zugangsprinzips nicht berücksichtigt werden muss (Robert George Briner, Haftung für Informationen auf Websites, sic! 2002, S. 231 ff, S. 239; Katja Favre, Sorgfaltspflichten bei der Datenübertragung, Diss. Zürich 2006, S. 239), genügt wohl die reine Möglichkeit der Kenntnisnahme nach den Umständen des Einzelfalles. Siehe dazu Häfelin/Müller/Uhlmann (Fn. 17), Rz. 682; CR Cst.-Dubey, Art. 9 N 82; in: Vincent Martenet/Jacques Dubey (Hrsg.), Commentaire Constitution fédérale, Basel 2021; Daniel Donauer/Fabian Loretan, Disclaimer – Haftungsausschluss bei Internetseiten, Jusletter 13.08.2018, Rz. 10.
  • 123. Briner (Fn. 122), S. 231 ff.
  • 124. Uhlmann/Stojanovic (Fn. 68), S. 736 f. Die Möglichkeit des Ausschlusses der Vertrauenshaftung mittels Vorbehalt bejahend, wenn auch als wenig zweckmässig erachtend Daniel Kettiger, Die Haftung des Staates für seine Geodaten, in: Verwaltungsorganisationsrecht – Staatshaftungsrecht – öffentliches Dienstrecht, Jahrbuch 2016/2017, Bern 2017, S. 103 ff., S. 118.
  • 125. Teilweise wird in gewissen Kantonen für bestimmte Bereiche ein Haftungsausschluss in generell-konkreten Regelungen im jeweiligen Verordnungsrecht statuiert, Kettiger (Fn. 124), S. 118 f.; Plattner (Fn. 78), Rz. 290. Gerade in Abgrenzung zum Privatrecht wird diskutiert, ob ein Vorbehalt angenommen werden muss, damit er im Verhältnis von Staat und Privaten zur Geltung kommt. Dankbar wäre ein Button, über den die Informationssuchenden bestätigen müssen, dass sie sich der Unverbindlichkeit der Auskunft bewusst sind und diese Prämisse akzeptieren. Siehe dazu Plattner (Fn. 78), Rz. 291 f.; Donauer/Loretan (Fn. 122), Rz. 10.
  • 126. Für eine Entwicklung in diese Richtung spricht, dass bereits heute das Internet zunehmend zum primären Informationskanal der Behörden wird, siehe Uhlmann/Stojanovic (Fn. 68), S. 737; Braun Binder et al., Studie 2021 (Fn. 16), S. 61.
  • 127. Bzgl. Entlastung durch KI in der Verwaltung generell, Braun Binder et al., Studie 2021 (Fn. 16), S. 15 f. Bzgl. Entlastung speziell durch Chatbots, Ringeisen/Bertolosi-Lehr/Demaj (Fn. 38), S. 54, S. 59; Mario Martini, Big Data als Herausforderung für das Datenschutzrecht und den Persönlichkeitsschutz, in: Hermann Hill/Mario Martini/Edgar Wagner (Hrsg.), Die digitale Lebenswelt gestalten, Baden-Baden 2015, S. 97 ff.; Plattner (Fn. 78), Rz. 513; Tobias Hänni, Digitalisierung: Der Beamten-Bot, St. Galler Tagblatt vom 28. Februar 2018, siehe https://www.tagblatt.ch/ostschweiz/digitalisierung-der-beamten-bot-im-ka... Frederic Härri, Entlastung der Mitarbeiter: «Maxi» unterstützt die Sozialversicherung bei Anfragen zu Prämien, Aargauer Zeitung vom 21.01.2020, siehe https://www.aargauerzeitung.ch/aargau/kanton-aargau/entlastung-der-mitar....
  • 128. Dem Grundsatz nach auch Weber-Dürler, Vertrauensschutz im öffentlichen Recht, Habil. Basel/Frankfurt a. M. 1983; Hauenstein/Klemperer (Fn. 68), S. 878.
  • 129. Dem Grundsatz nach auch Braun Binder et al., Studie 2021 (Fn. 16), S. 60; Hauenstein/Klemperer (Fn. 68), S. 878.
  • 130. Braun Binder et al., Studie 2021 (Fn. 16), S. 61.
  • 131. Ringeisen/Bertolosi-Lehr/Demaj (Fn. 38), S. 54, verstehen unter einem digitalen Verwaltungsassistenten einen Chatbot, der die Rolle einer konversationsbasierten Schnittstelle zwischen Menschen, Maschine und der öffentlichen Verwaltung übernimmt. Er soll für die Privaten den gesamten Koordinationsaufwand übernehmen, damit diese ungehindert auf verfügbare Daten und Services zugreifen können.
  • 132. Häfelin/Müller/Uhlmann (Fn. 17), Rz. 670; Uhlmann/Stojanovic (Fn. 68), S. 737.
  • 133. Der Grundsatz von Treu und Glauben verpflichtet die Behörde zu vertrauenswürdigem Handeln, siehe Braun Binder et al., Studie 2021 (Fn. 16), S. 61.
  • 134. Siehe https://www.bdm.bs.ch/Wohnen/ausweis-im-kreditkartenformat.html?navopen=.... Nach demselben Vorgehen agiert der Chatbot des Handelsregisteramtes des Kantons St. Gallen, siehe https://www.sg.ch/recht/handelsregister-notariate.html; siehe auch Plattner (Fn. 78), Rz. 290; bzgl. allgemein publizierten Informationen Hauenstein/Klemperer (Fn. 68), S. 878 ff.
  • 135. Ringeisen/Bertolosi-Lehr/Demaj (Fn. 38), S. 55; Braun Binder et al., Studie 2021 (Fn. 16), S. 57; Stucki/D’Onofrio/Portmann (Fn. 4), S. 7.
  • 136. Siehe B.II.2.
  • 137. Siehe C.III.1.
  • 138. Siehe auch Plattner (Fn. 78), Rz. 522.
  • 139. Siehe A.
  • 140. Plattner (Fn. 78), Rz. 519. Zur Gefahr von Manipulation und Missbrauch siehe C.I.3.
  • 141. Braun Binder et al., Studie 2021 (Fn. 16), S. 62.
  • 142. BSK BV-Epiney (Fn. 61), Art. 5 N 74 ff.
  • 143. Häfelin/Müller/Uhlmann (Fn. 17), Rz. 659; Tschannen/Zimmerli/Müller (Fn. 58), § 22 N 486.
  • 144. Braun Binder et al., Studie 2021 (Fn. 16), S. 62.
  • 145. Nur Häfelin/Müller/Uhlmann (Fn. 17), Rz. 695.
  • 146. Häfelin/Müller/Uhlmann (Fn. 17), Rz. 699; Tschannen/Zimmerli/Müller (Fn. 58), § 22 N 487.
iusNet DigR 30.05.2024