Первый Неофициальный
- Hi-Tech, Статьи дня, Технологии

Этичные роботы: почему искусственный интеллект надо дополнить «искусственной моралью»?

Чем дальше заходит научно-технический прогресс, тем больше появляется к нему вопросов. Прежде всего – к его морально-этическим аспектам. Ведь многие инновационные разработки способны произвести просто кардинальный переворот во всем привычном укладе жизни человеческого общества. Многие разработки кажутся нам очень полезными для экономики, производства, но вот принесут ли они счастье человеку? Поэтому и задумываются об этической стороне прогресса даже сами ученые.

О том, что во многих областях производства и обслуживания человеческий труд будет вытеснен роботами, мечтали давно. Сейчас мир все ближе продвигается к этому идеалу. Но повсеместное внедрение роботов может принести человечеству очень большие риски. Поэтому специалисты Института инженеров электротехники и электроники (IEEE) – одной из крупнейших международных организаций, объединяющих инноваторов в области радиоэлектронных и электротехнических разработок, и задались вопросом о соответствии внедрения роботов этической стороне жизни человеческого общества.

Институт представил 136-страничный доклад, к составлению которого были привлечены не только специалисты технического профиля, но и гуманитарии – философы, психологи, социологи. Кому, как не им, лучше удается разглядеть за радужными перспективами «мира роботов» зловещий лик технократической утопии. Как известно, эксперименты в сфере робототехники заходят все дальше. Сейчас ученые мира вовсю работают над «искусственным интеллектом». Но будет ли он действительно дружелюбен человеку? Или превратится в его злейшего врага?

Исследователи Института задались очень интересным вопросом – а можно ли, помимо искусственного интеллекта, запрограммировать и мораль? Поведение человека, даже аборигена первобытного племени, всегда определяется определенными нормами. Но робот с искусственным интеллектом остается «свободным» от традиционной морали, от этических и нравственных ценностей человеческого общества, складывавшихся тысячелетиями во всех культурах и цивилизациях. Поэтому в докладе Института и утверждается необходимость разработки неких стандартов, которые могли бы гарантировать человечеству безопасность роботов.

Кстати, создание «морали роботов» — не такая и утопия. Это вполне решаемая задача, которую способны успешно решить коллективы исследователей – инноваторов. Например, Марк Ридл – сотрудник Технологического института Джорджии – разработал методику Quixote. Она позволит внести в поведение роботов зачатки морали, исключить возможность совершения ими действий, неприемлемых с точки зрения человеческих ценностей. «Нравственный» робот будет ставить на первое место интересы людей и станет им надежным помощником и другом, на которого можно будет положиться в решении определенных задач.

По мнению ученых, интеллектуальные системы, создаваемые инноваторами, необходимо программировать таким образом, чтобы они не несли опасности для человека. Только в этом случае можно будет говорить о том, что роботы и их внедрение действительно станут полезными для мира людей.

Подписывайтесь на наш канал в Telegram!

Чтобы подписаться на канал 1neof в Telegram, достаточно пройти по ссылке https://telegram.me/firstneof с любого устройства, на котором установлен мессенджер, и присоединиться при помощи кнопки Join внизу экрана.

Добавить комментарий