Hier finden Sie Informationen zu Publikationen, die ich verfasst  oder an denen ich mitgewirkt habe. Zunächst sind Bücher aufgeführt, es folgen Herausgeberschaften und dann einige aktuelle Beiträge in Fachzeitschriften. Am Ende der Seite steht ein vollständiges Schriftenverzeichnis zum Download zur Verfügung. 

Bücher

Bert, Heinrichs, Jan-Hendrik Heinrichs, Markus Rüther: Künstliche Intelligenz. Berlin: De Gruyter, 2022

Unterschiedlichste Anwendungsformen künstlicher Intelligenz (KI) bestimmen schon heute den Alltag vieler Menschen – von Einsatz von KI-Systeme in Finanzgeschäften über die Vergabe von Studienplätzen bis hin zur Steuerung von Pflegerobotern, Autos und Waffensystemen. Diese vielfältigen neuen Möglichkeiten und Visionen wecken einerseits Hoffnungen auf persönlichen und gesellschaftlichen Nutzen und Fortschritt; andererseits rufen sie aber auch Bedenken, Ängste und gelegentlich auch grundsätzliche Ablehnung hervor. Angesichts dieser Ambivalenz sind ethische Analysen gefordert, die ausloten, wie ein verantwortungsvoller Umgang mit KI gestaltet werden sollte.
Der Band greift viele dieser Probleme auf und unterzieht sie einer eingehenden philosophischen Analyse. Die Auseinandersetzung ist nach klassischen Teilbereichen der Philosophie gegliedert, aus deren Perspektive heraus jeweils spezielle Teilaspekte oder einzelne Anwendungsformen von KI beleuchtet werden. Das Themenspektrum reicht entsprechend von Fragen der Handlungstheorie und Philosophie des Geistes über wissenschaftstheoretische Problemstellungen bis hin zu ethischen Fragen, die beispielsweise den Einsatz von KI in der Medizin und im Wirtschafts- und Arbeitsleben betreffen. In Auseinandersetzung mit aktuellen Debatten werden eigenständige Positionen entwickelt.

https://doi.org/10.1515/9783110746433


Bert Heinrichs: George Edward Moore zur Einführung. Hamburg: Junius, 2019

George Edward Moore (1873–1958) gilt – zusammen mit Bertrand Russell und Ludwig Wittgenstein – als Begründer der analytischen Philosophie. Als »Trinity trinity« verkörpern sie die Hochzeit der Philosophie an der Universität Cambridge im ersten Drittel des 20. Jahrhunderts. Moore steht dabei für einen tiefgreifenden Wandel in der englischen Philosophie: Sein Aufsatz »Die Widerlegung des Idealismus« läutet das Ende des Britischen Idealismus ein. Gegen diesen setzt Moore einen Realismus des Common Sense. In seinem ethischen Hauptwerk Principia Ethica wendet er sich unter anderem gegen den naturalistisch geprägten Utilitarismus von John Stuart Mill. Seine Kritik gründet im Konzept des naturalistischen Fehlschlusses, mit dem sich Moore einen festen Platz in der Philosophiegeschichte gesichert hat.


Bert Heinrichs: Moralische Intuition und ethische Rechtfertigung. Eine Untersuchung zum ethischen Intuitionismus. Münster: Mentis, 2013

Lange Zeit war der Verweis auf intuitiv erfassbare Prinzipien das vorherrschende Begründungsverfahren in der Moralphilosophie. Während der sogenannte „ethische Intuitionismus“ noch zu Beginn des 20. Jahrhunderts zumindest in der britischen Moralphilosophie die dominante Strömung darstellte, galt er seit der Mitte des Jahrhunderts aufgrund vielfältiger Probleme als nicht mehr theoriefähig und geriet nahezu in Vergessenheit. In den vergangenen zehn Jahren ist ein gewisses Revival des ethischen Intuitionismus zu beobachten, nicht zuletzt im Kontext der angewandten Ethik. Vor diesem Hintergrund bietet das vorliegende Buch eine umfassende Analyse des ethischen Intuitionismus. Dazu werden frühe Ansätze aus dem 17. und 18. Jahrhundert wie auch die klassischen Positionen aus dem späten 19. und frühen 20. Jahrhundert ausführlich rekonstruiert. Auf dieser historisch informierten Grundlage werden zeitgenössische Ansätze zur Fortentwicklung des ethischen Intuitionismus kritisch diskutiert. Schließlich wird mit einer an Kant anknüpfenden Ethik der Person ein systematischer Vorschlag unterbreitet, der sich als Variante des ethischen Intuitionismus verstehen lässt und der unmittelbar auf aktuelle Diskussionen in der Metaethik bezogen ist.


Michael Fuchs, Thomas Heinemann , Bert Heinrichs , Dietmar Hübner , Jens Kipper , Kathrin Rottländer , Thomas Runkel , Tade Matthias Spranger , Verena Vermeulen , Moritz Völker-Albert: Forschungsethik. Eine Einführung. Stuttgart: Metzler, 2013

Welchen Regeln unterliegt die wissenschaftliche Praxis? Welche grundsätzlichen Fragen wirft die Forschung am Menschen auf? Unter welchen Bedingungen ist diese ethisch legitim? Wie ist die Forschung an Tieren ethisch zu bewerten? Mit diesen und anderen Fragen nimmt die Forschungsethik die Richtlinien des Forschungsprozesses unter die Lupe. Das Lehrbuch bietet eine umfassende Einführung in Grundlagen, Problemfelder und Anwendungsgebiete und stellt die methodische Herangehensweise an konkrete forschungsethische Fragestellungen vor.

https://doi.org/10.1007/978-3-476-05463-0


Bert Heinrichs: Forschung am Menschen Elemente einer ethischen Theorie biomedizinischer Humanexperimente. Berlin: De Gruyter, 2006

Das Buch behandelt die Frage, unter welchen Bedingungen es als ethisch vertretbar gelten kann, Menschen im Rahmen biomedizinischer Experimente als Probanden zu verwenden. Der Gang der Untersuchung beginnt mit einer historisch-kritischen Problemexposition. Anschließend werden im Rahmen einer fundamentalethischen Überlegung der Principlism von Beauchamp und Childress sowie die daran geäußerten Kritikpunkte rekonstruiert, um auf dieser Grundlage eine Erweiterung bzw. Umdeutung des Principlism vorzuschlagen. Sodann wird der Handlungsbereich „biomedizinische Forschung“ einer strukturellen Analyse unterzogen, die in eine Typologie biomedizinischer Humanexperimente in praktischer Absicht mündet. Schließlich werden die fundamentalethischen Überlegungen mit den Resultaten der Strukturanalyse des Handlungsbereichs „biomedizinische Forschung“ zusammengeführt. Den Abschluss der Untersuchung bildet der Versuch, die entwickelte kritisch-systematische Forschungsethik im Hinblick auf drei nach wie vor kontrovers diskutierte Problemkomplexe – Forschung mit Minderjährigen, randomisierte klinische Studien sowie die Forschung in Entwicklungsländern – auszuwerten. Ein kurzer Ausblick benennt schließlich Probleme, deren weitere ethische Untersuchung besonders dringlich erscheint und die daher zum Gegenstand zukünftiger Untersuchungen gemacht werden sollten.

https://doi.org/10.1515/9783110920635


Herausgeberschaften

Heinrichs, B., Heinrichs, J.-H. (Hrsg.): Metaethik. Klassische Texte. Berlin: Suhrkamp, 2016

»Du sollst nicht lügen!« – Moralische Sätze wie dieser bereiten uns im Alltag keinerlei Probleme. Bei näherer Betrachtung werfen sie aber vielfältige Fragen auf, mit denen sich die philosophische Disziplin der Metaethik seit dem Beginn des 20. Jahrhunderts befasst. Handelt es sich um wahrheitsfähige Sätze, oder müssen sie als rein subjektive Gefühlsäußerungen interpretiert werden? Gibt es moralische Tatsachen, und, falls ja, wie sind sie beschaffen? Der vorliegende Band versammelt zentrale Texte der Metaethik, unter anderem von George Edward Moore, Richard Hare, John Leslie Mackie, Bernard Williams und John McDowell. Er zeichnet die semantischen, erkenntnistheoretischen, ontologischen und motivationstheoretischen Debatten nach und gibt einen Einblick in aktuelle Kontroversen.


Sturma, D., Heinrichs, B. (Hrsg.): Handbuch Bioethik. Stuttgart: Metzler, 2015

Das Handbuch erläutert die Grundlagen und gibt einen Überblick über Bereiche, in denen bioethische Fragen relevant sind, wie Menschenwürde, Leben, Tod und Krankheit. Daneben widmet es sich den speziellen bioethischen Problemen wie etwa Zulässigkeit von Sterbehilfe, Präimplantationsdiagnostik oder embryonaler Stammzellenforschung und zeigt die Schnittstellen der Bioethik zu anderen Disziplinen und gesellschaftlichen Bereichen auf (Bioethik in der Lehre, Biopolitik, Biorecht und Ethikkommissionen).

https://doi.org/10.1007/978-3-476-05323-7


Lanzerath, D., Rietschel, M., Heinrichs, B., Schmäl, C. (Hrsg.): Incidental Findings. Scientific, Legal and Ethical Issues. Köln: Deutscher Ärzte-Verlag, 2013

Der weit verbreitete Einsatz von bildgebenden Verfahren in Forschungsprojekten wirft im Bereich der Bioethik Fragen und Probleme auf, besonders im Hinblick auf "Zufallsbefunde" (engl. incidental findings). Aufgrund fehlender einheitlicher Richtlinien in Europa zum Umgang mit Zufallsbefunden, befasst sich dieser Band mit der Frage, wie mit pathologischen Befunden umgegangen werden soll, die im Kontext von Forschungsprojekten "zufällig" bei (vermeintlich) gesunden Probanden erhoben werden. Die Inhalte sind z.T. in englischer Sprache verfasst.


Neuere Aufsätze in Fachzeitschriften

Kerth, JL. et al. (2025). Artificial intelligence in the care of children and adolescents with chronic diseases: a systematic review. Eur J Pediatr 184, 83. https://doi.org/10.1007/s00431-024-05846-3

The integration of artificial intelligence (AI) and machine learning (ML) has shown potential for various applications in the medical field, particularly for diagnosing and managing chronic diseases among children and adolescents. This systematic review aims to comprehensively analyze and synthesize research on the use of AI for monitoring, guiding, and assisting pediatric patients with chronic diseases.


Wagner, R., & Heinrichs, B. (2024). Four notions of autonomy. Pitfalls of conceptual pluralism in contemporary debates. Human-Machine Communication, 9, 37–50. https://doi.org/10.30658/hmc.9.3

The concept of autonomy is indispensable in the history of Western thought. At least that’s how it seems to us nowadays. However, the notion has not always had the outstanding significance that we ascribe to it today and its exact meaning has also changed considerably over time. In this paper, we want to shed light on different understandings of autonomy and clearly distinguish them from each other. Our main aim is to contribute to conceptual clarity in (interdisciplinary) discourses and to point out possible pitfalls of conceptual pluralism.


Raz, A. et al.: Prediction and explainability in AI: Striking a new balance? Big Data & Society 11 (2024)

The debate regarding prediction and explainability in artificial intelligence (AI) centers around the trade-off between achieving high-performance accurate models and the ability to understand and interpret the decisionmaking process of those models. In recent years, this debate has gained significant attention due to the increasing adoption of AI systems in various domains, including healthcare, finance, and criminal justice. While prediction and explainability are desirable goals in principle, the recent spread of high accuracy yet opaque machine learning (ML) algorithms has highlighted the trade-off between the two, marking this debate as an inter-disciplinary, inter-professional arena for negotiating expertise. There is no longer an agreement about what should be the “default” balance of prediction and explainability, with various positions reflecting claims for professional jurisdiction. Overall, there appears to be a growing schism between the regulatory and ethics-based call for explainability as a condition for trustworthy AI, and how it is being designed, assimilated, and negotiated. The impetus for writing this commentary comes from recent suggestions that explainability is overrated, including the argument that explainability is not guaranteed in human healthcare experts either. To shed light on this debate, its premises, and its recent twists, we provide an overview of key arguments representing different frames, focusing on AI in healthcare.

https://journals.sagepub.com/doi/10.1177/20539517241235871


Reinhart, L. et al.: Artificial intelligence in child development monitoring: A systematic review on usage, outcomes and acceptance. Intelligence-Based Medicine 9 (2024), 100134

Objectives: Recent advances in Artificial Intelligence (AI) offer promising opportunities for its use in pediatric healthcare. This is especially true for early identification of developmental problems where timely intervention is essential, but developmental assessments are resource-intensive. AI carries potential as a valuable tool in the early detection of such developmental issues. In this systematic review, we aim to synthesize and evaluate the current literature on AI-usage in monitoring child development, including possible clinical outcomes, and acceptability of such technologies by different stakeholders. Material and methods: The systematic review is based on a literature search comprising the databases PubMed, Cochrane Library, Scopus, Web of Science, Science Direct, PsycInfo, ACM and Google Scholar (time interval 1996–2022). All articles addressing AI-usage in monitoring child development or describing respective clinical outcomes and opinions were included. Results: Out of 2814 identified articles, finally 71 were included. 70 reported on AI usage and one study dealt with users’ acceptance of AI. No article reported on potential clinical outcomes of AI applications. Articles showed a peak from 2020 to 2022. The majority of studies were from the US, China and India (n = 45) and mostly used pre-existing datasets such as electronic health records or speech and video recordings. The most used AI methods were support vector machines and deep learning. Conclusion: A few well-proven AI applications in developmental monitoring exist. However, the majority has not been evaluated in clinical practice. The subdomains of cognitive, social and language development are particularly well-represented. Another focus is on early detection of autism. Potential clinical outcomes of AI usage and user's acceptance have rarely been considered yet. While the increase of publications in recent years suggests an increasing interest in AI implementation in child development monitoring, future research should focus on clinical practice application and stakeholder's needs.

https://doi.org/10.1016/j.ibmed.2024.100134

Heinrichs, B. et al.: Künstliche Intelligenz in der Medizin. Ein interdisziplinärer Blick auf den Verordnungsentwurf der Europäischen Kommission. Medizinrecht 41 (2023), 259-264

Anwendungen künstlicher Intelligenz (KI) halten Einzug in unseren Alltag, seien es nun automatisierte Entscheidungen im Bereich der Finanzdienstleistungen, die Nutzung von Gesichtserkennungsprogrammen durch Sicherheitsbehörden oder autonomes Fahren. Im Bereich der Medizin geht es um die Optimierung von Diagnose und Therapie, die Nutzung von Gesundheits-Apps verschiedenster Couleur, die Bereitstellung von Instrumenten der personalisierten Medizin, die Möglichkeiten roboterassistierter Chirurgie, ein optimiertes Krankenhausdatenmanagement, oder die Entwicklung und

Bereitstellung intelligenter Medizinprodukte. Aber handelt es sich bei diesen Konstellationen überhaupt um Beispiele künstlicher Intelligenz? Und was bedeutet „Intelligenz“ bzw. welche Bedingungen müssen erfüllt sein, um von „Intelligenz“ reden zu können? Diese Fragen werden je nach Kontext und disziplinärer Verankerung äußerst unterschiedlich beantwortet, sodass sich im Ergebnis ein denkbar weit- reichender und facettenreicher Diskurs zeigt. Unumstritten ist hingegen der Befund, dass die Qualität und die Quantität der unter KI firmierenden Anwendungen zahlreiche rechtliche, ethische, soziale sowie auch naturwissenschaftliche Fra- gen aufwerfen, die bislang einer umfassenden Behandlung und befriedigender Lösungen harren.

https://doi.org/10.1007/s00350-023-6432-x


Rathkopf, C., Heinrichs, B.: Learning to Live with Strange Error: Beyond Trustworthiness in Artificial Intelligence Ethics. Cambridge Quarterly of Healthcare Ethics (2023), 1-13

Position papers on artificial intelligence (AI) ethics are often framed as attempts to work out technical and regulatory strategies for attaining what is commonly called trustworthy AI. In such papers, the technical and regulatory strategies are frequently analyzed in detail, but the concept of trustworthy AI is not. As a result, it remains unclear. This paper lays out a variety of possible interpretations of the concept and concludes that none of them is appropriate. The central problem is that, by framing the ethics of AI in terms of trustworthiness, we reinforce unjustified anthropocentric assumptions that stand in the way of clear analysis. Furthermore, even if we insist on a purely epistemic interpretation of the concept, according to which trustworthiness just means measurable reliability, it turns out that the analysis will, nevertheless, suffer from a subtle form of anthropocentrism. The paper goes on to develop the concept of strange error, which serves both to sharpen the initial diagnosis of the inadequacy of trustworthy AI and to articulate the novel epistemological situation created by the use of AI. The paper concludes with a discussion of how strange error puts pressure on standard practices of assessing moral culpability, particularly in the context of medicine.

https://doi.org/10.1017/S0963180122000688


Halsband, A., Heinrichs, B.: AI, Suicide Prevention and the Limits of Beneficence. Philosophy & Technology (2022) 35:103

In this paper, we address the question of whether AI should be used for suicide prevention on social media data. We focus on algorithms that can identify persons with suicidal ideation based on their postings on social media platforms and investigate whether private companies like Facebook are justified in using these. To find out if that is the case, we start with providing two examples for AI-based means of suicide prevention in social media. Subsequently, we frame suicide prevention as an issue of beneficence, develop two fictional cases to explore the scope of the principle of beneficence and apply the lessons learned to Facebook’s employment of AI for suicide prevention. We show that Facebook is neither acting under an obligation of beneficence nor acting meritoriously. This insight leads us to the general question of who is entitled to help. We conclude that private companies like Facebook can play an important role in suicide prevention, if they comply with specific rules which we derive from beneficence and autonomy as core principles of biomedical ethics. At the same time, public bodies have an obligation to create appropriate framework conditions for AI-based tools of suicide prevention. As an outlook we depict how cooperation between public and private institutions can make an important contribution to combating suicide and, in this way, put the principle of beneficence into practice.

https://doi.org/10.1007/s13347-022-00599-z


Stake, M., Heinrichs, B.: Ethical Implications of e-Health Applications in Early Preventive Healthcare. Frontiers in Genetics 13:902631

As a means of preventive medicine early detection and prevention examinations can identify and treat possible health disorders or abnormalities from an early age onwards. However, pediatric examinations are often widely spaced, and thus only snapshots of the children’s and adolescents’ developments are obtained. With e-health applications parents and adolescents could record developmental parameters much more frequently and regularly and transmit data directly for ongoing evaluation. AI technologies could be used to search for new and previously unknown patterns. Although e-health applications could improve preventive healthcare, there are serious concerns about the unlimited use of big data in medicine. Such concerns range from general skepticism about big data in medicine to specific challenges and risks in certain medical areas. In this paper, we will focus on preventive health care in pediatrics and explore ethical implications of e-health applications. Specifically, we will address opportunities and risks of app-based data collection and AI-based data evaluation for complementing established early detection and prevention examinations. To this end, we will explore the principle of the best interest of the child. Furthermore, we shall argue that difficult trade-offs need to be made between group benefit on the one hand and individual autonomy and privacy on the other.

https://doi.org/10.3389/fgene.2022.902631


Rathkopf, C., Heinrichs, J.-H., Heinrichs, B.: Can we read minds by imaging brains? Philosophical Psychology 36 (2023), 221-246

Will brain imaging technology soon enable neuroscientists to read minds? We cannot answer this question without some understanding of the state of the art in neuroimaging. But neither can we answer this question without some understanding of the concept invoked by the term “mind reading.” This article is an attempt to develop such understanding. Our analysis proceeds in two stages. In the first stage, we provide a categorical explication of mind reading. The categorical explication articulates empirical conditions that must be satisfied if mind reading is to be achieved. In the second stage, we develop a metric for judging the proficiency of mind reading experiments. The conception of mind reading that emerges helps to reconcile folk psychological judgments about what mind reading must involve with the constraints imposed by empirical strategies for achieving it.

https://doi.org/10.1080/09515089.2022.2041590


Heinrichs, B.: Discrimination in the Age of AI. AI & Society 37 (2022), 143-154

In this paper, I examine whether the use of artificial intelligence (AI) and automated decision-making (ADM) aggravates issues of discrimination as has been argued by several authors. For this purpose, I first take up the lively philosophical debate on discrimination and present my own definition of the concept. Equipped with this account, I subsequently review some of the recent literature on the use AI/ADM and discrimination. I explain how my account of discrimination helps to understand that the general claim in view of the aggravation of discrimination is unwarranted. Finally, I argue that the use of AI/ADM can, in fact, increase issues of discrimination, but in a different way than most critics assume: it is due to its epistemic opacity that AI/ADM threatens to undermine our moral deliberation which is essential for reaching a common understanding of what should count as discrimination. As a consequence, it turns out that algorithms may actually help to detect hidden forms of discrimination.

https://doi.org/10.1007/s00146-021-01192-2


Heinrichs, B., Knell, S.: Aliens in the Space of Reasons? On the Interaction Between Humans and Artificial Intelligent Agents. Philosophy & Technology 34 (2021), 1569-1580

In this paper, we use some elements of the philosophical theories of Wilfrid Sellars and Robert Brandom for examining the interactions between humans and machines. In particular, we adopt the concept of the space of reasons for analyzing the status of artificial intelligent agents (AIAs). One could argue that AIAs, like the widely used recommendation systems, have already entered the space of reasons, since they seem to make knowledge claims that we use as premises for further claims. This, in turn, can lead to a sense of alienation because AIAs do not quite play by the rules of the space of the reason. We, therefore, ask somewhat pointedly whether aliens have entered the space of reasons. A closer look reveals that it is a misconception to consider AIAs as being (already) in the space of reasons. In fact, they should be seen as very sophisticated tools. Since these tools affect our own acting in the space of reasons, special regulations are required for their proper use.

https://doi.org/10.1007/s13347-021-00475-2


Heinrichs, B.: Advance research directives: avoiding double standards. BMC Med Ethics 22 (2021), 137

Advance research directives (ARD) have been suggested as a means by which to facilitate research with incapacitated subjects, in particular in the context of dementia research. However, established disclosure requirements for study participation raise an ethical problem for the application of ARDs: While regular consent procedures call for detailed information on a specific study (“token disclosure”), ARDs can typically only include generic information (“type disclosure”). The introduction of ARDs could thus establish a double standard in the sense that within the context of ARDs, type disclosure would be considered sufficient, while beyond this context, token disclosure would remain necessary.

 https://doi.org/10.1186/s12910-021-00704-5


Eickhoff, S., Heinrichs, B.: Der vorhersagbare Mensch: Zu Chancen und Risiken der KI-basierten Prädiktion von kognitiven Fähigkeiten, Persönlichkeitsmerkmalen und psychischen Erkrankungen. Der Nervenarzt 92 (2021), 1140-1148

Neue Ansätze der Nutzung künstlicher Intelligenz (KI) zur Analyse von Daten aus der Neurobildgebung, aber auch passiv gesammelter Daten von sog. „Wearables“ wie Smartphones oder Smartwatches sowie Daten, die sich aus Social-Media- und anderen Online-Aktivitäten extrahieren lassen, ermöglichen es bereits heute, kognitive Fähigkeiten, Persönlichkeitsmerkmale und psychische Erkrankungen vorherzusagen sowie akute mentale Zustände offenzulegen. In diesem Beitrag erläutern wir die Hintergründe der aktuellen Entwicklung, leuchten ihre Möglichkeiten und Grenzen aus und gehen auf ethische und gesellschaftliche Aspekte ein, die sich aus der Nutzung ergeben.

https://doi.org/10.1007/s00115-021-01197-8


Heinrichs, B.: Moral ambivalence. A comment on NIPT from an ethical perspective. Journal of Perinatal Medicine 49 (2021), 949-952

Non-invasive prenatal testing (NIPT) has been available for almost 10 years. In many countries the test attracted considerable criticism from the start. While most critical comments in this context deal with the (alleged) problem of eugenic selection, I will concentrate on a somewhat broader issue. I will argue that NIPT clearly has the potential to increase reproductive autonomy and benefit expectant parents. However, NIPT can also put people in a situation that is morally overwhelming for them and from which there is no easy way out. In this sense, such tests can have a dilemma-generating effect. I will conclude that this can be adequately described by the term “moral ambivalence”.

https://doi.org/10.1515/jpm-2021-0194


Ein vollständiges Schriftenverzeichnis steht hier zum Download zur Verfügung:

Schriftenverzeichnis 2024
PDF – 305,6 KB