Инструменты пользователя

Инструменты сайта


start

Различия

Здесь показаны различия между двумя версиями данной страницы.

Ссылка на это сравнение

Предыдущая версия справа и слева Предыдущая версия
Следующая версия
Предыдущая версия
start [2025/01/10 11:22]
platonova
start [2025/11/24 20:49] (текущий)
platonova
Строка 1: Строка 1:
 ====Ближайшее заседание==== ====Ближайшее заседание====
  
-**05 февраля 2025 г.** +**10 декабря 2025 г.** 
-//Проблема «искусственного зла»?//+// Робот-партнер: по образу и подобию собаки. //
  
-Докладчик: ​Перов Вадим Юрьевич +ДокладчикиКарпов В.Э., Томильцева ​Д.А., Сорокоумов П.С.
-кандидат философских,​ доцент, заваф.этикиИнститут философии, Санкт-Петербургский государственный университет+
  
-Аннотация:​ +Аннотация: ​В работе рассматривается ​возможность создания робота-партнёра, основанного на восприятии человеком ​его ​поведения, как служебной собаки. Исходными установками исследование является: 1) оценка ​поведения робота-партнера с моральной позиции обусловлена психологией восприятия человека; 2) моральный уровень системы управления может воздействовать на поведение искусственного ​агента, не влияя на работоспособность базовых уровней управления, устойчивость и целостность ​поведения ​робота; 3) робот-партнёр должен ​выполнять функционал собаки и демонстрировать ​её уникальные поведенческие ​черты; 4) робот-партнёр, в котором проявлены черты собаки, ограничен в своих когнитивных возможностях. В рамках исследования ​был произведён отбор ограниченного ряда поведенческих особенностей собаки, связанных с коллаборативными возможностями. Наиболее важные характеристики собаки, такие как строение телапсихология, идеализированные человеческие представления были типизированы ​по ряду параметров. При разработке модели за характеристикой "строение тела" была оставлена такая функция как способность отображать эмоциональное состояние агента. В качестве теоретической основы для морального уровня системы управления была ​выбрана концепция количественного ​эгоистического ​гедонизма ГСиджвика. Разработанная модель была протестирована ​в ряде экспериментов,​ представленных в двух ​ситуациях взаимодействия робота и человека,​ каждая из которых предполагала несколько поведенческих сценариев, воспроизводящих поведение ​собак и людей в аналогичной ситуации. В результате проведённых экспериментов была подтверждена работоспособность ​трехуровневой ​системы управления: эмоционально-потребностный, когнитивный и оценочный (моральный) уровни. При этом выяснилось, что ​ряд поведенческих сценариев, внешне выглядевших как результат сложных когнитивных процессов, на самом деле реализуется ​базовым условно-рефлекторным механизмом (сценарии ​с "​оценкой" ситуации ​и осцилляциями ​поведения). Вместе с тем, что внешне казалось простым рефлекторным ​поведением, ​требовало привлечения когнитивного уровня управления (сценарии с переориентацией базовых ​реакций).
-Появление новых и особых ​сфер ​знания ​и практик с необходимостью ставит ​вопрос о критическом переосмыслении соответствующего понятийно- категориального аппарата. Не является исключением и этика ​в сфере искусственного ​интеллектаразвитие которой не оставила ​без внимания ​базовые этические ​понятия добра ​и зла. Обсуждение проблемы зла в современных этических теориях ​обычно начинается со ставшего традиционным рассмотрения ​видов зла: моральное зло ависящее от деятельности людей, их свободы, сознательности и т.д.) и физическое зло (природные явленияфизиология ​людей и т.д.). Появление технологий, основанных на алгоритмах искусственного ​интеллекта, создание автономных ​интеллектуальных систем и проекты создания на их основе Искусственных Моральных Агентов обусловило возникновение идей существования ​в качестве ​самостоятельного ​«искусственного зла»В докладе анализируются возможные способы понимания и интерпретации ​концепта «искусственное зло». Особое внимание уделено проблемам, связанным с возможностью алгоритмам искусственного интеллекта быть «злыми» в строгом «аморальном» смысле. Показано, что ​Искусственный Моральный Агент не способен отклоняться от алгоритмически ​правильного поведения ​и нарушать «правила добра», поэтому «искусственное зло» может ​рассматриваться только как метафора. ​  ​+
  
 Необходима регистрация по адресу:​ ethicsai@yandex.ru Необходима регистрация по адресу:​ ethicsai@yandex.ru
start.1736497360.txt.gz · Последние изменения: 2025/01/10 11:22 — platonova