Здесь показаны различия между двумя версиями данной страницы.
| Предыдущая версия справа и слева Предыдущая версия Следующая версия | Предыдущая версия | ||
|
start [2025/01/10 11:23] platonova |
start [2025/11/24 20:49] (текущий) platonova |
||
|---|---|---|---|
| Строка 1: | Строка 1: | ||
| ====Ближайшее заседание==== | ====Ближайшее заседание==== | ||
| - | **05 февраля 2025 г.** | + | **10 декабря 2025 г.** |
| - | //Проблема «искусственного зла»?// | + | // Робот-партнер: по образу и подобию собаки. // |
| - | Докладчик: Перов Вадим Юрьевич, кандидат философских, доцент, зав.каф.этики, Институт философии, Санкт-Петербургский государственный университет | + | Докладчики: Карпов В.Э., Томильцева Д.А., Сорокоумов П.С. |
| - | Аннотация: | + | Аннотация: В работе рассматривается возможность создания робота-партнёра, основанного на восприятии человеком его поведения, как служебной собаки. Исходными установками исследование является: 1) оценка поведения робота-партнера с моральной позиции обусловлена психологией восприятия человека; 2) моральный уровень системы управления может воздействовать на поведение искусственного агента, не влияя на работоспособность базовых уровней управления, устойчивость и целостность поведения робота; 3) робот-партнёр должен выполнять функционал собаки и демонстрировать её уникальные поведенческие черты; 4) робот-партнёр, в котором проявлены черты собаки, ограничен в своих когнитивных возможностях. В рамках исследования был произведён отбор ограниченного ряда поведенческих особенностей собаки, связанных с коллаборативными возможностями. Наиболее важные характеристики собаки, такие как строение тела, психология, идеализированные человеческие представления были типизированы по ряду параметров. При разработке модели за характеристикой "строение тела" была оставлена такая функция как способность отображать эмоциональное состояние агента. В качестве теоретической основы для морального уровня системы управления была выбрана концепция количественного эгоистического гедонизма Г. Сиджвика. Разработанная модель была протестирована в ряде экспериментов, представленных в двух ситуациях взаимодействия робота и человека, каждая из которых предполагала несколько поведенческих сценариев, воспроизводящих поведение собак и людей в аналогичной ситуации. В результате проведённых экспериментов была подтверждена работоспособность трехуровневой системы управления: эмоционально-потребностный, когнитивный и оценочный (моральный) уровни. При этом выяснилось, что ряд поведенческих сценариев, внешне выглядевших как результат сложных когнитивных процессов, на самом деле реализуется базовым условно-рефлекторным механизмом (сценарии с "оценкой" ситуации и осцилляциями поведения). Вместе с тем, что внешне казалось простым рефлекторным поведением, требовало привлечения когнитивного уровня управления (сценарии с переориентацией базовых реакций). |
| - | Появление новых и особых сфер знания и практик с необходимостью ставит вопрос о критическом переосмыслении соответствующего понятийно- категориального аппарата. Не является исключением и этика в сфере искусственного интеллекта, развитие которой не оставила без внимания базовые этические понятия добра и зла. Обсуждение проблемы зла в современных этических теориях обычно начинается со ставшего традиционным рассмотрения видов зла: моральное зло (зависящее от деятельности людей, их свободы, сознательности и т.д.) и физическое зло (природные явления, физиология людей и т.д.). Появление технологий, основанных на алгоритмах искусственного интеллекта, создание автономных интеллектуальных систем и проекты создания на их основе Искусственных Моральных Агентов обусловило возникновение идей существования в качестве самостоятельного «искусственного зла». В докладе анализируются возможные способы понимания и интерпретации концепта «искусственное зло». Особое внимание уделено проблемам, связанным с возможностью алгоритмам искусственного интеллекта быть «злыми» в строгом «аморальном» смысле. Показано, что Искусственный Моральный Агент не способен отклоняться от алгоритмически правильного поведения и нарушать «правила добра», поэтому «искусственное зло» может рассматриваться только как метафора. | + | |
| Необходима регистрация по адресу: ethicsai@yandex.ru | Необходима регистрация по адресу: ethicsai@yandex.ru | ||