Чьей жизнью пожертвует автопилот в аварийной ситуации?

Развитие технологий автономного вождения вызвало множество вопросов, включая сложную для автономных систем проблему потенциального выбора решения в отношении жизни или смерти. Должны ли автономные системы автомобилей защищать жизнь своих владельцев любой ценой, или им придётся пожертвовать водителем, чтобы спасти от гибели большую группу людей?

Хотя конкретного ответа на этот вопрос нет, исследовательская группа из Германии считает, что мораль может вскоре сыграть определённую роль в том, как самоуправляемые автомобили будут принимать решения.

Факты говорят о том, что человеческая мораль слишком зависит от контекста происходящего для точного моделирования, а это означает, что её нельзя эффективно интегрировать в алгоритм самостоятельного управления. Исследователи из Института когнитивных наук при Оснабрюкском университете в Германии допускают, что на самом деле это не так.

Участникам исследования было предложено управлять машиной в виртуальной реальности по городским улицам туманной ночью. В виртуальных путешествиях им создавали аварийные ситуации, когда невозможно было избежать столкновения с неодушевленными предметами, животными или людьми. Последующие решения были смоделированы и превращены в набор правил, создающих модель «ценности жизни» для каждого человека, животного и неодушевленного объекта, который может быть вовлечен в дорожный инцидент.

«Теперь, когда мы знаем, как внедрять человеческие этические решения в машины, мы, как общество, все ещё остаёмся с двойной дилеммой, — говорит профессор Питер Кениг, основной автор статьи в журнале Frontiers in Behavioral Neuroscience. — Во-первых, мы должны решить, должны ли моральные ценности быть включены в руководящие принципы поведения машин, а во-вторых, если они есть, должны ли машины действовать точно так же, как люди?».

Авторы исследования предупреждают, что автономные автомобили — это только начало, поскольку роботы и другие системы искусственного интеллекта становятся всё более распространенными. Мы сейчас находимся в начале новой эпохи, когда необходимо выработать чёткие правила, иначе машины начнут принимать решения без нас.

Информация предоставлена по материалам New Atlas

/

Чьей жизнью пожертвует автопилот в аварийной ситуации?

Развитие технологий автономного вождения вызвало множество вопросов, включая сложную для автономных систем проблему потенциального выбора решения в отношении жизни или смерти. Должны ли автономные системы автомобилей защищать жизнь своих владельцев любой ценой, или им придётся пожертвовать водителем, чтобы спасти от гибели большую группу людей?

Хотя конкретного ответа на этот вопрос нет, исследовательская группа из Германии считает, что мораль может вскоре сыграть определённую роль в том, как самоуправляемые автомобили будут принимать решения.

Факты говорят о том, что человеческая мораль слишком зависит от контекста происходящего для точного моделирования, а это означает, что её нельзя эффективно интегрировать в алгоритм самостоятельного управления. Исследователи из Института когнитивных наук при Оснабрюкском университете в Германии допускают, что на самом деле это не так.

Участникам исследования было предложено управлять машиной в виртуальной реальности по городским улицам туманной ночью. В виртуальных путешествиях им создавали аварийные ситуации, когда невозможно было избежать столкновения с неодушевленными предметами, животными или людьми. Последующие решения были смоделированы и превращены в набор правил, создающих модель «ценности жизни» для каждого человека, животного и неодушевленного объекта, который может быть вовлечен в дорожный инцидент.

«Теперь, когда мы знаем, как внедрять человеческие этические решения в машины, мы, как общество, все ещё остаёмся с двойной дилеммой, — говорит профессор Питер Кениг, основной автор статьи в журнале Frontiers in Behavioral Neuroscience. — Во-первых, мы должны решить, должны ли моральные ценности быть включены в руководящие принципы поведения машин, а во-вторых, если они есть, должны ли машины действовать точно так же, как люди?».

Авторы исследования предупреждают, что автономные автомобили — это только начало, поскольку роботы и другие системы искусственного интеллекта становятся всё более распространенными. Мы сейчас находимся в начале новой эпохи, когда необходимо выработать чёткие правила, иначе машины начнут принимать решения без нас.

Информация предоставлена по материалам New Atlas

_.jpg">

Робомобили смогут принимать решения, основанные на нравственности / Лента новостей / Главная

Борменталь Зорин 08.07.2017, 11:42

Чьей жизнью пожертвует автопилот в аварийной ситуации?

Развитие технологий автономного вождения вызвало множество вопросов, включая сложную для автономных систем проблему потенциального выбора решения в отношении жизни или смерти. Должны ли автономные системы автомобилей защищать жизнь своих владельцев любой ценой, или им придётся пожертвовать водителем, чтобы спасти от гибели большую группу людей?

Хотя конкретного ответа на этот вопрос нет, исследовательская группа из Германии считает, что мораль может вскоре сыграть определённую роль в том, как самоуправляемые автомобили будут принимать решения.

Факты говорят о том, что человеческая мораль слишком зависит от контекста происходящего для точного моделирования, а это означает, что её нельзя эффективно интегрировать в алгоритм самостоятельного управления. Исследователи из Института когнитивных наук при Оснабрюкском университете в Германии допускают, что на самом деле это не так.

Участникам исследования было предложено управлять машиной в виртуальной реальности по городским улицам туманной ночью. В виртуальных путешествиях им создавали аварийные ситуации, когда невозможно было избежать столкновения с неодушевленными предметами, животными или людьми. Последующие решения были смоделированы и превращены в набор правил, создающих модель «ценности жизни» для каждого человека, животного и неодушевленного объекта, который может быть вовлечен в дорожный инцидент.

«Теперь, когда мы знаем, как внедрять человеческие этические решения в машины, мы, как общество, все ещё остаёмся с двойной дилеммой, — говорит профессор Питер Кениг, основной автор статьи в журнале Frontiers in Behavioral Neuroscience. — Во-первых, мы должны решить, должны ли моральные ценности быть включены в руководящие принципы поведения машин, а во-вторых, если они есть, должны ли машины действовать точно так же, как люди?».

Авторы исследования предупреждают, что автономные автомобили — это только начало, поскольку роботы и другие системы искусственного интеллекта становятся всё более распространенными. Мы сейчас находимся в начале новой эпохи, когда необходимо выработать чёткие правила, иначе машины начнут принимать решения без нас.

Информация предоставлена по материалам New Atlas

ПОХОЖИЕ НОВОСТИ

Комментарии

comments powered by Disqus
Мы в социальных сетях: