Der Einsatz von künstlicher Intelligenz in der Medizin ist die Erzeugung großer Aufregung und Hoffnung für die Behandlung Fortschritte.
AI bezieht sich allgemein auf Computer, mit der Fähigkeit zu imitieren, die menschliche Intelligenz und lernen. Zum Beispiel mithilfe von machine-learning -, die Wissenschaftlerinnen und Wissenschaftler arbeiten, um algorithmen zu entwickeln, die Ihnen helfen, Entscheidungen über die Behandlung von Krebs. Sie hoffe, dass Computer in der Lage sein, zu analysieren, radiologische Bilder und erkennen, welche krebsartigen Tumoren reagieren gut auf Chemotherapie sind und welche nicht.
Aber AI in der Medizin wirft auch bedeutende ethische und rechtliche Herausforderungen. Mehrere von diesen sind die Bedenken bezüglich Datenschutz, Diskriminierung, psychologische Schaden und der Arzt-patient-Beziehung. In einem der nächsten Artikel habe ich argumentiert, dass die politischen Entscheidungsträger sollte eine Reihe von Garantien, um die KI, wie viel Sie haben, wenn genetische Tests wurden alltäglich.
Potenzial für Diskriminierung
AI geht es um die Analyse von sehr großen Datenmengen zu erkennen, die Muster, die werden dann verwendet, um vorherzusagen, die Wahrscheinlichkeit künftiger Ereignisse. In der Medizin werden die Datensätze können aus elektronischen Patientenakten und Krankenversicherung Ansprüche aber auch aus mehreren überraschenden Quellen. AI zeichnen können, beim Einkauf records, Einkommen, Daten, Strafregister und sogar social-media-Informationen über die individuelle Gesundheit.
Die Forscher sind bereits mit AI, um vorherzusagen, dass eine Vielzahl von medizinischen Bedingungen. Dazu gehören Herzerkrankungen, Schlaganfall, diabetes, kognitiven, Zukunft opioid-Missbrauch und sogar Selbstmord. Als ein Beispiel, Facebook verwendet einen Algorithmus, der macht Selbstmord Vorhersagen basierend auf posts mit Sätzen wie „Sind Sie okay?“, gepaart mit „auf Wiedersehen“ und „Bitte tun Sie das nicht.“
Diese vorhersagefähigkeit von AI wirft erhebliche ethische Bedenken in der Gesundheitsversorgung. Wenn AI generiert Vorhersagen über Ihre Gesundheit, ich glaube diese Informationen könnten eines Tages in Ihren elektronischen Gesundheit Aufzeichnungen.
Jeder mit Zugriff auf Ihre Gesundheits-Aufzeichnungen könnten dann sehen, Vorhersagen über die kognitiven oder opioid-Missbrauch. Patienten medizinische Aufzeichnungen zu sehen sind, die durch Dutzende oder sogar Hunderte von Klinikern und Administratoren, die im Laufe der medizinischen Behandlung. Darüber hinaus werden Patienten oft selbst ermächtigen, anderen Zugriff auf Ihre Aufzeichnungen: zum Beispiel, wenn Sie gelten für die Beschäftigung oder die Lebensversicherung.
Daten broker Branchenriesen wie LexisNexis und Acxiom sind auch der Bergbau persönlichen Daten und den Eingriff in AI-Aktivitäten. Sie könnten dann verkaufen, medizinische Prognosen zu allen interessierten Dritten, einschließlich Vermarkter, Arbeitgeber, Banken, Lebensversicherer und andere. Denn diese Unternehmen sind nicht Anbieter von Gesundheitsleistungen oder Versicherer, die HIPAA Privatsphäre Regel gilt nicht für Sie. Daher Sie nicht haben, zu bitten Patienten um die Erlaubnis zu erhalten, Ihre Informationen und können sich frei weitergeben.
Solche Angaben können zu Diskriminierung führen. Arbeitgeber, zum Beispiel, sind daran interessiert, die Arbeitnehmer, die gesund und produktiv, mit wenig Fehlzeiten und niedrigen Kosten für medizinische Versorgung. Wenn Sie glauben, bestimmte Bewerber entwickeln Krankheiten in der Zukunft, Sie wird wahrscheinlich ablehnen. Kreditgeber, Vermieter, Lebensversicherer und andere könnten ebenfalls nachteilige Entscheidungen über Individuen, basierend auf AI Vorhersagen.
Mangel an Schutz
Die Amerikaner mit Behinderungen Act nicht verbieten Diskriminierungen, die sich auf künftige medizinische Probleme. Es gilt nur zu aktuellen und vergangenen Beschwerden. In Reaktion auf die Gentests, Kongress erlassen, das die Genetische Information Nondiscrimination Act. Dieses Gesetz verbietet den Arbeitgebern und den Krankenkassen unter Berücksichtigung von genetischen Informationen und Entscheidungen auf der Grundlage von zugehörigen Annahmen über die zukünftigen Bedingungen der Gesundheit. Kein Gesetz auferlegt, ein ähnliches Verbot mit Bezug auf nongenetic predictive data.
AI Gesundheits-Vorhersage kann auch führen zu psychischen Schäden. Zum Beispiel, viele Menschen können traumatisiert sein, wenn Sie erfahren, dass Sie wahrscheinlich leiden die kognitiven Fähigkeiten im späteren Leben. Es ist sogar möglich, dass Einzelpersonen Gesundheit zu erhalten Prognosen direkt von kommerziellen Unternehmen gekauft, die Ihre Daten. Stellen Sie sich den Erhalt der Nachricht, dass Sie in Gefahr der Demenz durch eine elektronische Anzeige drängen Sie zu kaufen, Speicher-Verbesserung-Produkte.
Wenn es um genetische Tests, die Patienten geraten, suchen Sie die genetische Beratung, so dass Sie sorgfältig entscheiden, ob Sie getestet werden und besser zu verstehen, Testergebnisse. Wir dagegen haben keine AI-Ratgeber, die auch ähnliche Leistungen für die Patienten.
Noch eine andere Sorge bezieht sich auf die Arzt-patient-Beziehung. Wird AI vermindern Sie die Rolle der ärzte? Werden Computer sein, die zu Vorhersagen, Diagnosen und Behandlung Vorschläge, so dass die ärzte einfach zu implementieren die Computer-Anweisungen? Wie fühlen sich die Patienten über Ihre ärzte, wenn die Computer haben ein größeres Mitspracherecht bei der Herstellung medizinischer Ermittlungen?
Diese Bedenken werden noch verschärft durch die Tatsache, dass AI Vorhersagen sind weit davon entfernt unfehlbar. Viele Faktoren können dazu beitragen, Fehler. Wenn die Daten, die für die Entwicklung eines Algorithmus fehlerhaft sind—zum Beispiel, wenn Sie medizinische Datensätze, die Fehler enthalten—der Algorithmus die Ausgabe wird falsch sein. Daher können die Patienten unter Diskriminierung leiden oder psychischen Schaden, wenn in der Tat Sie sind nicht in Gefahr, das prognostizierte Beschwerden.
Ein Aufruf zur Vorsicht
Was kann getan werden, um den Schutz der amerikanischen öffentlichkeit? Ich habe argumentiert, in der Vergangenheit arbeiten für die Erweiterung des HIPAA Privatsphäre Regel, so dass es für jedermann, wer kümmert sich um die Gesundheit Informationen, die für geschäftliche Zwecke. Schutz der Privatsphäre gelten sollte, nicht nur auf Leistungserbringer und Versicherer, aber auch für kommerzielle Unternehmen. Ich habe auch argumentiert, dass der Kongress ändern sollten, die Amerikaner mit Behinderungen Act “ verbieten die Diskriminierung basierend auf Prognosen der zukünftigen Krankheiten.
Ärzte, die Patienten mit AI Vorhersagen sollten sicherstellen, dass Sie gründlich ausgebildet über die vor-und Nachteile eines solchen Prognosen. Experten sollen beraten Patienten über AI nur als ausgebildete Experten über Gentests.