MeetOne Ratgeber

KI in der Arztpraxis: Was ist erlaubt, was ist sinnvoll

Welche KI-Anwendungen in der Arztpraxis funktionieren, wo rechtliche Grenzen liegen und warum Schatten-KI zum Problem wird. Ein Ueberblick zum EU AI Act.

KI in der Arztpraxis: Was ist erlaubt, was ist sinnvoll

KI in der Praxis: Zwischen Hype und Alltag

Laut einer Bitkom-Erhebung (Presseinformation "KI in Praxis und Kliniken im Einsatz") setzen rund 12 % der Arztpraxen in Deutschland KI zur Diagnoseunterstuetzung ein. Das klingt nach wenig. Gleichzeitig nutzen deutlich mehr Praxisteams KI-Werkzeuge im Alltag -- nur eben inoffiziell, ueber private Accounts und ohne dass es in der Praxis-IT dokumentiert waere.

Diese Diskrepanz ist kein Zufall. Auf der einen Seite fehlen klare Regeln, welche KI-Anwendungen in der Praxis zulaessig sind. Auf der anderen Seite wird der Druck groesser: Ab dem 2. August 2026 gelten wesentliche Teile des EU AI Act. Die vollstaendigen Anforderungen fuer Hochrisiko-KI im Gesundheitswesen greifen ab August 2027 (36 Monate nach Inkrafttreten). Was heute noch eine Grauzone ist, wird dann reguliert.

Dieser Artikel ordnet ein, welche KI-Anwendungen in der Praxis sinnvoll sind, wo die Grenzen liegen und was sich durch den EU AI Act konkret aendert. Ohne Hype, ohne Marketing-Versprechen -- dafuer mit konkreten Handlungsempfehlungen.

Der EU AI Act: Was sich aendert

Die EU-Verordnung ueber Kuenstliche Intelligenz (AI Act, Verordnung EU 2024/1689) tritt stufenweise in Kraft. Ab dem 2. August 2026 gelten die allgemeinen Pflichten fuer die meisten KI-Systeme. Fuer Hochrisiko-KI im Gesundheitswesen -- also Systeme, die Diagnose- oder Therapieentscheidungen unterstuetzen -- greifen die vollstaendigen Anforderungen ab dem 2. August 2027 (36 Monate nach Inkrafttreten).

Was ist Hochrisiko-KI im Gesundheitswesen?

Der AI Act definiert KI-Systeme als Hochrisiko, wenn sie fuer Entscheidungen eingesetzt werden, die die Gesundheit von Menschen direkt betreffen. Fuer die Arztpraxis bedeutet das:

Anwendung Risikostufe Vollstaendige Regulierung ab
KI-gestuetzte Diagnosevorschlaege Hochrisiko Umfassende Dokumentations- und Transparenzpflichten
KI zur Behandlungsempfehlung Hochrisiko Konformitaetsbewertung erforderlich
KI-Terminmanagement Kein Hochrisiko Allgemeine Transparenzpflichten
KI-Spracherkennung fuer Dokumentation Kein Hochrisiko* Allgemeine Transparenzpflichten
KI-gestuetzte Arztbriefe Kein Hochrisiko* Allgemeine Transparenzpflichten

*Solange die KI keine medizinischen Entscheidungen trifft, sondern nur dokumentiert, was der Arzt diktiert oder entscheidet.

Was heisst das praktisch?

Fuer die meisten Praxen aendert sich kurzfristig weniger als befuerchtet. Der EU AI Act richtet sich primaer an die Hersteller von KI-Systemen, nicht an die Anwender. Praxen muessen aber sicherstellen, dass sie nur KI-Systeme einsetzen, die den Anforderungen entsprechen. Konkret bedeutet das:

  • Praxen muessen wissen, welche KI-Systeme sie einsetzen
  • Fuer Hochrisiko-KI muessen Hersteller umfangreiche Dokumentation bereitstellen
  • Patienten haben ein Recht zu erfahren, wenn KI an Entscheidungen beteiligt war
  • Praxen muessen eine menschliche Aufsicht ueber KI-Entscheidungen sicherstellen

Die ehrliche Einschraenkung: Viele Details der praktischen Umsetzung sind noch offen. Die EU-Kommission arbeitet an ergaenzenden Leitlinien. Wer heute schon KI-Werkzeuge nutzt, sollte dokumentieren, welche das sind und wofuer sie eingesetzt werden.

Das Schatten-KI-Problem

In vielen Praxen ist KI laengst im Einsatz -- nur nicht offiziell. Eine MFA tippt Patientenbefunde in ChatGPT, um einen Arztbrief-Entwurf zu erstellen. Ein Arzt laesst sich von einem KI-Tool Differentialdiagnosen vorschlagen. Das geschieht ueber private Accounts, auf privaten Geraeten, ohne Wissen der Praxisleitung.

Warum Schatten-KI ein ernstes Problem ist

Das Problem ist nicht die KI selbst -- sondern der unkontrollierte Umgang mit Patientendaten. Wer Patienteninformationen in ein allgemeines KI-Tool wie ChatGPT eingibt, uebertraegt diese Daten an Server eines US-Unternehmens, ohne zu wissen, wie sie dort verarbeitet, gespeichert oder weiterverwendet werden. Die Konsequenzen:

  • DSGVO-Verstoss: Patientendaten werden an Drittanbieter uebermittelt, ohne Rechtsgrundlage und ohne Auftragsverarbeitungsvertrag
  • Aerztliche Schweigepflicht: Wer Patientendaten in ein KI-Tool eingibt, gibt sie an einen Dritten weiter -- das kann strafrechtlich relevant sein (Paragraph 203 StGB)
  • Keine Qualitaetskontrolle: KI-generierte Texte werden uebernommen, ohne dass geprueft wird, ob die Inhalte korrekt sind
  • Haftungsrisiko: Wenn eine KI-gestuetzte Entscheidung zu einem Behandlungsfehler fuehrt, haftet der Arzt -- nicht der KI-Anbieter

Was Praxen dagegen tun koennen

Verbote allein helfen nicht. Wenn Praxisteams KI-Tools nutzen, tun sie das oft aus nachvollziehbaren Gruenden: Zeitdruck, Dokumentationsaufwand, Personalmangel. Sinnvoller ist es, offizielle Alternativen bereitzustellen:

  • Klare Richtlinie erstellen, welche KI-Tools erlaubt sind und welche nicht
  • Zugelassene KI-Werkzeuge bereitstellen, die DSGVO-konform arbeiten
  • Schulungen anbieten, was in KI-Tools eingegeben werden darf und was nicht
  • Grundregel etablieren: Keine Patientendaten in allgemeine KI-Dienste eingeben

Fragen zur datenschutzkonformen Praxis-IT? Beratung vereinbaren

Wir beantworten alle Ihre Fragen

Kontakt aufnehmen

Was heute schon sinnvoll funktioniert

Nicht jede KI-Anwendung ist Hochrisiko, und nicht jede braucht eine aufwaendige Compliance-Pruefung. Es gibt Bereiche, in denen KI den Praxisalltag heute schon spuerbar entlasten kann -- vorausgesetzt, die Datenschutzfragen sind geklaert.

KI-gestuetzte Dokumentation

Der staerkste Anwendungsfall fuer KI in der Praxis ist derzeit die Dokumentation. Spracherkennungs-Tools koennen aerztliche Diktate in strukturierte Texte umwandeln. Das spart Zeit, reduziert Tippfehler und entlastet MFA. In einer typischen Hausarztpraxis verbringen Aerzte einen erheblichen Teil ihrer Arbeitszeit mit Dokumentation -- Zeit, die fuer Patienten fehlt.

Wichtig ist dabei: Die KI dokumentiert, was der Arzt sagt. Sie trifft keine medizinischen Entscheidungen. Damit faellt sie in der Regel nicht unter die Hochrisiko-Kategorie des AI Act. Die KI ist hier ein Werkzeug wie ein Diktiergeraet -- nur intelligenter.

Was bei der Auswahl eines Dokumentations-Tools zaehlt:

  • Wo werden die Sprachdaten verarbeitet? (EU-Server vs. US-Cloud)
  • Gibt es einen Auftragsverarbeitungsvertrag?
  • Werden die Daten nach der Verarbeitung geloescht?
  • Ist die Spracherkennung fuer medizinische Fachbegriffe trainiert?
  • Werden die Audiodaten nur fuer die unmittelbare Transkription genutzt oder auch fuer das Training des KI-Modells?

Gerade der letzte Punkt ist entscheidend: Wenn ein Anbieter Sprachaufnahmen aus Arztpraxen zum Training seiner KI verwendet, werden Patientendaten in ein Modell eingespeist, aus dem sie nicht mehr entfernt werden koennen. Das ist aus Datenschutzsicht hochproblematisch.

Arztbrief-Entwuerfe

KI kann aus strukturierten Daten (Diagnosen, Befunde, Therapie) einen Arztbrief-Entwurf generieren. Der Arzt prueft und korrigiert den Entwurf, bevor er versendet wird. Das spart erfahrungsgemaess erheblich Zeit bei einem Arbeitsschritt, den viele Aerzte als besonders zeitaufwaendig empfinden.

Die ehrliche Einschraenkung: Die Qualitaet solcher Entwuerfe haengt stark vom eingesetzten System ab. Allgemeine KI-Sprachmodelle wie ChatGPT oder Claude produzieren haeufig plausibel klingende, aber inhaltlich ungenaue medizinische Texte. Spezialisierte Medizin-KI-Systeme liefern bessere Ergebnisse, sind aber noch nicht flaechendeckend verfuegbar.

Terminmanagement

KI-gestuetztes Terminmanagement kann Absagen vorhersagen, Luecken fuellen und Patienten automatisch an Termine erinnern. Manche Systeme analysieren historische Daten, um zu erkennen, welche Terminslots besonders haeufig ausfallen, und schlagen doppelte Buchungen oder kuerzere Intervalle vor. Das ist ein klassischer Low-Risk-Anwendungsfall: keine medizinischen Entscheidungen, keine sensiblen Gesundheitsdaten in der KI-Verarbeitung (nur Terminzeiten und Kontaktdaten). Entsprechend gering sind die regulatorischen Huerden.

Was noch nicht funktioniert

So wichtig es ist, die Chancen zu sehen -- ebenso wichtig ist Ehrlichkeit darueber, was KI in der Arztpraxis heute nicht leisten kann.

Vollautomatisierte Diagnose

Kein KI-System kann heute eigenstaendig Diagnosen stellen, die aerztlicher Urteilskraft gleichkommen. KI kann Hinweise geben, Muster erkennen und auf Auffaelligkeiten aufmerksam machen -- etwa bei der Auswertung von Hautbildern oder Roentgenaufnahmen. Aber die diagnostische Verantwortung bleibt beim Arzt. Der EU AI Act verstaerkt dieses Prinzip sogar: Fuer KI-Systeme, die an Diagnosen beteiligt sind, wird menschliche Aufsicht ausdruecklich vorgeschrieben. Eine vollstaendig automatisierte Diagnose ohne aerztliche Pruefung ist damit auch regulatorisch ausgeschlossen.

KI-gesteuerte Verordnungen

Medikamente verordnen, Therapien festlegen, Ueberweisungen ausstellen -- das sind aerztliche Entscheidungen, die nach geltendem Recht ein Arzt treffen muss. KI kann hier unterstuetzen (Wechselwirkungspruefung, Dosierungsvorschlaege), aber nicht ersetzen.

Vollstaendig automatisierte Patientenkommunikation

KI-Chatbots, die eigenstaendig medizinische Auskuenfte an Patienten geben, sind rechtlich problematisch und medizinisch riskant. KI-Sprachmodelle neigen dazu, mit hoher Ueberzeugung Aussagen zu treffen, die medizinisch falsch sind -- in der Fachsprache als "Halluzinationen" bekannt. Fuer einfache organisatorische Fragen (Oeffnungszeiten, Anfahrt, benoetigte Unterlagen) koennen KI-Chatbots sinnvoll sein. Sobald es aber um Symptome, Medikation oder Behandlungsempfehlungen geht, ist die Grenze klar erreicht. Ein Patient, der auf Basis einer falschen KI-Auskunft handelt, stellt ein Haftungsrisiko dar, das keine Praxis eingehen sollte.

KI und Videosprechstunde

Ein Bereich, in dem KI zunehmend relevant wird, ist die Verbindung mit Videosprechstunden. Technisch ist es moeglich, Videogespraeche automatisch zu transkribieren und daraus Dokumentation zu generieren: Gespraechszusammenfassungen, Behandlungsnotizen oder Aufgabenlisten fuer das Praxisteam.

Was technisch moeglich ist

Einige Videosprechstunden-Anbieter integrieren bereits KI-Funktionen oder planen dies. Typische Anwendungsfaelle:

  • Automatische Transkription des Arzt-Patienten-Gespraechs in Echtzeit
  • KI-gestuetzte Zusammenfassung der besprochenen Punkte nach dem Gespraech
  • Vorstrukturierte Dokumentation auf Basis des Gespraechs (Anamnese, Befund, Procedere)
  • Automatische Extraktion von Aufgaben und Folgemassnahmen

Was die DSGVO dazu sagt

Hier wird es komplex. Die Transkription eines Arzt-Patienten-Gespraechs ist eine Verarbeitung besonders schuetzenswerter Gesundheitsdaten. Dafuer gelten strenge Anforderungen:

  • Der Patient muss informiert werden und einwilligen
  • Die Transkription muss technisch so erfolgen, dass keine unbefugten Dritten Zugriff erhalten
  • Bei einer Peer-to-Peer-Videoloesung wie MeetOne werden die Video- und Audiodaten direkt zwischen den Teilnehmern uebertragen -- eine serverseitige Transkription ist in dieser Architektur nicht moeglich, was aus Datenschutzsicht ein Vorteil ist, aber KI-Transkription nur auf dem Endgeraet erlaubt

Fuer Praxen, die KI-gestuetzte Dokumentation mit Videosprechstunden verbinden wollen, bedeutet das: Die Transkription muesste lokal auf dem Geraet des Arztes erfolgen, nicht in einer externen Cloud.

Wie MeetOne Peer-to-Peer-Architektur funktioniert

Erfahren Sie, wie MeetOne Ihre Praxis digitalisiert

Funktionen ansehen

KI in der Praxis -- die wichtigsten Punkte

  • Allgemeine EU-AI-Act-Pflichten gelten ab 08/2026, Hochrisiko-KI-Anforderungen im Gesundheitswesen vollstaendig ab 08/2027. Dokumentations- und Terminmanagement-KI faellt in der Regel nicht unter Hochrisiko.
  • Schatten-KI (private ChatGPT-Nutzung mit Patientendaten) ist ein Datenschutzrisiko, das Praxen aktiv adressieren sollten.
  • Sinnvolle Einstiegspunkte sind KI-gestuetzte Dokumentation und Arztbrief-Entwuerfe -- bei klarer Datenschutzregelung.
  • Automatisierte Diagnosen und Verordnungen bleiben aerztliche Verantwortung, daran aendert auch KI nichts.
  • Bei Videosprechstunden ist KI-Transkription nur datenschutzkonform, wenn sie lokal auf dem Endgeraet erfolgt.
Beratung vereinbaren

Praktische Empfehlungen fuer Praxen

Wer sich dem Thema KI naehern will, ohne in rechtliche oder technische Fallen zu tappen, kann sich an diesen Schritten orientieren:

Bestandsaufnahme machen: Welche KI-Tools werden bereits genutzt, offiziell oder inoffiziell? Oft lohnt sich ein offenes Gespraech im Team. Haeufig zeigt sich, dass im Praxisteam laengst KI-Werkzeuge im Einsatz sind -- nur eben nicht dokumentiert. Ein solches Gespraech ohne Schuldzuweisung schafft die Grundlage fuer einen verantwortungsvollen Umgang.

Mit Dokumentation anfangen: KI-gestuetzte Dokumentation (Spracherkennung, Arztbrief-Entwuerfe) bietet den besten Einstieg. Der Nutzen ist spuerbar, das Risiko ueberschaubar, die regulatorischen Anforderungen geringer als bei diagnostischer KI.

Schatten-KI adressieren: Nicht verbieten, sondern Alternativen bieten. Eine klare Richtlinie, welche Tools erlaubt sind und welche Daten eingegeben werden duerfen, schuetzt die Praxis besser als ein pauschales Verbot.

EU AI Act im Blick behalten: Ab August 2026 gelten allgemeine Pflichten, ab August 2027 die vollstaendigen Hochrisiko-Anforderungen. Praxen muessen sich nicht selbst um die Konformitaet ihrer KI-Systeme kuemmern -- das ist primaer Sache der Hersteller. Aber sie sollten bei der Auswahl neuer Werkzeuge darauf achten, dass der Anbieter die EU-AI-Act-Anforderungen erfuellt oder glaubhaft auf dem Weg dorthin ist.

Dokumentation fuehren: Welche KI-Systeme werden eingesetzt, wofuer, von wem? Diese Dokumentation wird spaetestens ab August 2026 relevant, ist aber auch jetzt schon aus DSGVO-Sicht sinnvoll.

Fazit

KI in der Arztpraxis ist kein Zukunftsthema mehr, sondern Gegenwart -- auch wenn ein Grossteil der Nutzung noch inoffiziell und ungeregelt stattfindet. Der EU AI Act bringt ab August 2026/2027 stufenweise einen verbindlichen Rahmen, der vor allem die Hersteller in die Pflicht nimmt, aber auch von Praxen Transparenz ueber eingesetzte Systeme verlangt. Die gute Nachricht: Fuer die Bereiche, in denen KI heute den groessten praktischen Nutzen bringt -- Dokumentation, Arztbriefe, Terminmanagement -- sind die regulatorischen Huerden ueberschaubar. Wer dort anfaengt und gleichzeitig das Thema Schatten-KI im Team offen adressiert, ist fuer die kommenden Anforderungen gut aufgestellt.

Dieser Artikel dient der allgemeinen Information und ersetzt keine individuelle rechtliche oder technische Beratung. Die Darstellung des EU AI Act basiert auf dem Verordnungstext und zum Zeitpunkt der Veroeffentlichung verfuegbaren Leitlinien.