Accueil de la Bulle
Accueil
Détail de l'auteur
Auteur N. Ducarme |
Documents disponibles écrits par cet auteur (2)
Affiner la recherche
Qui est responsable si un robot autonome vient à entraîner un dommage ? / M. Stevenin in Ethique et santé, n° 2 ([01/06/2020])
[article]
Titre : Qui est responsable si un robot autonome vient à entraîner un dommage ? Type de document : Article Auteurs : M. Stevenin, Auteur ; V. Avisse, Auteur ; N. Ducarme, Auteur Année de publication : 2020 Article en page(s) : p. 95-101 Langues : Français (fre) Mots-clés : AUTONOMIE
DROIT
ETHIQUE
INTELLIGENCE ARTIFICIELLE
RESPONSABILITE
ROBOTIQUERésumé : La robotique et l’intelligence artificielle envahissent nos lieux d’exercices et notamment le monde de la santé. Les progrès des processeurs et des algorithmes permettent aux automates de disposer d’une véritable autonomie décisionnelle grâce à une capacité d’apprentissage propre. Les enjeux éthiques sont majeurs et, parmi ceux-ci, les problématiques de responsabilité des automates en cas de dysfonctionnement, mauvaise utilisation ou d’accidents provoqués par leurs décisions. Nous proposons ici des réflexions sur ces aspects. Un article avait traité antérieurement les problématiques de responsabilité juridique des automates dépourvus de capacité d’apprentissage ainsi que de stockage des informations. Nous ne reprendrons pas ces éléments au sein du texte suivant, d’autant que les réponses juridiques y semblent plus claires. Cote : Permalink : https://pmb.pfps-churennes.bzh/pmb_ifsi/opac_css/index.php?lvl=notice_display&id
in Ethique et santé > n° 2 [01/06/2020] . - p. 95-101[article] Qui est responsable si un robot autonome vient à entraîner un dommage ? [Article] / M. Stevenin, Auteur ; V. Avisse, Auteur ; N. Ducarme, Auteur . - 2020 . - p. 95-101.
Langues : Français (fre)
in Ethique et santé > n° 2 [01/06/2020] . - p. 95-101
Mots-clés : AUTONOMIE
DROIT
ETHIQUE
INTELLIGENCE ARTIFICIELLE
RESPONSABILITE
ROBOTIQUERésumé : La robotique et l’intelligence artificielle envahissent nos lieux d’exercices et notamment le monde de la santé. Les progrès des processeurs et des algorithmes permettent aux automates de disposer d’une véritable autonomie décisionnelle grâce à une capacité d’apprentissage propre. Les enjeux éthiques sont majeurs et, parmi ceux-ci, les problématiques de responsabilité des automates en cas de dysfonctionnement, mauvaise utilisation ou d’accidents provoqués par leurs décisions. Nous proposons ici des réflexions sur ces aspects. Un article avait traité antérieurement les problématiques de responsabilité juridique des automates dépourvus de capacité d’apprentissage ainsi que de stockage des informations. Nous ne reprendrons pas ces éléments au sein du texte suivant, d’autant que les réponses juridiques y semblent plus claires. Cote : Permalink : https://pmb.pfps-churennes.bzh/pmb_ifsi/opac_css/index.php?lvl=notice_display&id Exemplaires(1)
Cote Support Localisation Disponibilité . Périodique Espace de Ressources Formation-Recherche Disponible Qui est responsable si un robot non autonome vient à entraîner un dommage ? / M. Stevenin in Ethique et santé, n° 2 ([01/06/2020])
[article]
Titre : Qui est responsable si un robot non autonome vient à entraîner un dommage ? Type de document : Article Auteurs : M. Stevenin, Auteur ; V. Avisse, Auteur ; N. Ducarme, Auteur ; et al., Auteur Année de publication : 2020 Article en page(s) : p. 89-94 Langues : Français (fre) Mots-clés : DROIT
ETHIQUE
INTELLIGENCE ARTIFICIELLE
RESPONSABILITE
ROBOTIQUE
SANTERésumé : La robotique et l’intelligence artificielle imprègnent déjà de nombreux domaines et secteurs au premier rang desquels la finance, la santé, la recherche, et même les métiers du droit. Les progrès régulièrement effectués apportent un rôle majeur des algorithmes, dont les automates profitent afin de disposer de toujours plus d’autonomie décisionnelle, et ce, grâce à une capacité d’apprentissage accrue. Cette nouvelle arborescence doit-elle conduire à adapter notre système de responsabilité et d’indemnisation d’une part ? Une réponse positive semble s’imposer et un processus de normalisation a déjà été enclenché à ce titre au niveau de l’Union européenne en 2017. D’autre part, ne paraît-il pas opportun d’adapter la réglementation aux spécificités des dispositifs médicaux et de sensibilité du milieu de la santé ? Ces nouvelles problématiques seront in concreto bientôt généralisées dans l’ensemble du domaine médical, auxquelles il convient d’apporter des éléments de réponse juridiques. Deux situations semblent bien différentes du point juridique et donc éthique. La première situation est celle des robots qui ne sont que des systèmes algorithmiques sophistiqués qui ne peuvent répondre qu’à des questions dont la solution a été envisagée par le logiciel et donc par le programmeur. La seconde est celle des robots qui sont dans une capacité d’apprentissage et de créer en interne une manière de résoudre des problèmes au-delà de ce qui avait été programmé. Cet article ne concerne que de la première situation. Cote : Permalink : https://pmb.pfps-churennes.bzh/pmb_ifsi/opac_css/index.php?lvl=notice_display&id
in Ethique et santé > n° 2 [01/06/2020] . - p. 89-94[article] Qui est responsable si un robot non autonome vient à entraîner un dommage ? [Article] / M. Stevenin, Auteur ; V. Avisse, Auteur ; N. Ducarme, Auteur ; et al., Auteur . - 2020 . - p. 89-94.
Langues : Français (fre)
in Ethique et santé > n° 2 [01/06/2020] . - p. 89-94
Mots-clés : DROIT
ETHIQUE
INTELLIGENCE ARTIFICIELLE
RESPONSABILITE
ROBOTIQUE
SANTERésumé : La robotique et l’intelligence artificielle imprègnent déjà de nombreux domaines et secteurs au premier rang desquels la finance, la santé, la recherche, et même les métiers du droit. Les progrès régulièrement effectués apportent un rôle majeur des algorithmes, dont les automates profitent afin de disposer de toujours plus d’autonomie décisionnelle, et ce, grâce à une capacité d’apprentissage accrue. Cette nouvelle arborescence doit-elle conduire à adapter notre système de responsabilité et d’indemnisation d’une part ? Une réponse positive semble s’imposer et un processus de normalisation a déjà été enclenché à ce titre au niveau de l’Union européenne en 2017. D’autre part, ne paraît-il pas opportun d’adapter la réglementation aux spécificités des dispositifs médicaux et de sensibilité du milieu de la santé ? Ces nouvelles problématiques seront in concreto bientôt généralisées dans l’ensemble du domaine médical, auxquelles il convient d’apporter des éléments de réponse juridiques. Deux situations semblent bien différentes du point juridique et donc éthique. La première situation est celle des robots qui ne sont que des systèmes algorithmiques sophistiqués qui ne peuvent répondre qu’à des questions dont la solution a été envisagée par le logiciel et donc par le programmeur. La seconde est celle des robots qui sont dans une capacité d’apprentissage et de créer en interne une manière de résoudre des problèmes au-delà de ce qui avait été programmé. Cet article ne concerne que de la première situation. Cote : Permalink : https://pmb.pfps-churennes.bzh/pmb_ifsi/opac_css/index.php?lvl=notice_display&id Exemplaires(1)
Cote Support Localisation Disponibilité . Périodique Espace de Ressources Formation-Recherche Disponible