Форум атеистов Рунета

Текущее время: 27 апр 2024, 21:01

Часовой пояс: UTC + 4 часа




Начать новую тему Ответить на тему  [ Сообщений: 119 ]  На страницу 1, 2, 3, 4, 5 ... 12  След.
Автор Сообщение
СообщениеДобавлено: 18 ноя 2021, 09:50 
Не в сети
Аватара пользователя

Зарегистрирован: 26 авг 2012, 12:50
Сообщения: 46491
Откуда: г. Псков
Вот вам ситуация: перед автомобилем появляется бабушка (или ребенок) и остановиться уже нет времени. Варианта два: либо врезаться в огражнение на большой скорости (риск гибели пассажира), либо сбить пешехода. А теперь представьте себе, что вы пассажир, а никакого водителя в вашей машине нет — это беспилотный автомобиль, робокар. Какой моральный выбор должен сделать управляющий им искусственный интеллект — как его нужно запрограммировать?

Над этим вопросом не первый год бьются все разработчики беспилотных автомобилей — от Audi и Toyota до Tesla и «Яндекс». Но, как выяснили ученые, ответ на него сильно зависит от того, кого вы спрашиваете.
Кого спасти — старика или ребенка?


Чтобы разработать универсальный алгоритм принятия решений для беспилотных машин, ученые Массачусетского технологического института (MIT) разработали специальный онлайн-тест, пройти который мог любой желающий.

Каждому участнику опроса предлагалась дюжина гипотетических дорожных ситуаций — вроде тех, что приведены выше, — в которых водителю необходимо сделать моральный выбор, неизбежно влекущий за собой смертельный исход. Например, насмерть сбить трех пожилых пешеходов на автостраде — или направить машину в бетонный забор, убив находящихся в ней троих пассажиров.

Чтобы точнее выявить приоритеты респондентов, сценарии онлайн-теста варьировались. Кого участники спасут с наибольшей вероятностью — молодых или пожилых? Бедных или богатых? Одного ребенка или нескольких взрослых?

Масштабы эксперимента, результаты которого опубликованы в журнале Nature, впечатляют: за полтора года в нем приняли участие 2,3 млн человек из 233 стран и территорий (тест специально перевели на десяток языков). В общей сложности ученые собрали почти 40 млн ответов. И, проанализировав эту огромную базу данных, они сделали несколько важных выводов.

Первый — и, пожалуй, самый важный из них: моральные приоритеты сильно зависят от страны проживания. Авторы исследования выделили три типа стран, которые они условно назвали «западными», «восточными» и «южными». Условно — потому что Франция, например, попала в «южный тип», а вот Египет — в «восточный».

«Западники» чаще предпочитали спасать более молодых людей, а «восточники» — более пожилых. Представители «южных» стран чаще отдавали предпочтения женщинам и детям, а также людям, обладающим более высоким социальным статусом.

На удивление, люди, занимающие более высокое положение в обществе, вызывали больше симпатий и у жителей «западных» стран — по сравнению с «восточными».

Зато «восточные» жители почти не принимали в расчет разницу в количестве спасенных жизней, основывая свои предпочтения на других факторах.
Так выглядит уличное движение для искусственного интеллекта

Второй вывод: ответы зависят и от демографических показателей участников эксперимента, таких как пол, возраст и так далее — но уже далеко не так сильно.

И третий — возможно, довольно очевидный: моральный выбор сильно коррелирует не только с глубоко укорененными в культуре представлениями об этике, но и с современным состоянием гражданских институтов.

Например, жители относительно богатых стран с сильной и независимой судебной системой (Финляндии и Японии) проявляли куда меньше симпатий к пешеходу, вышедшему на дорогу в неположенном месте, чем респонденты из Нигерии или Пакистана.
«Универсальных правил нет»

Опрос, проведенный в 2016 году, выявил довольно интересный парадокс. С одной стороны, большинство респондентов заявили, что беспилотный автомобиль должен ставить во главу угла безопасность пешеходов, даже если это означает дополнительные риски для пассажиров. С другой — люди признавались, что сами не стали бы покупать машину, запрограммированную подобным образом.

Именно это сподвигло ученых MIT на создание онлайн-теста Moral Machine, в разработке которого приняли участие психологи, антропологи и экономисты со всего мира.
Люди, размышляющие о машинной этике, исходят из того, что можно создать для роботов какой-то идеальный набор правил. Но наши данные показывают, что никаких универсальных правил нет», — утверждает один из авторов исследования Ияд Рахван.

Сам Рахван родился в Сирии, окончил университет в Австралии, а теперь работает в США. Впрочем, по результатам эксперимента все эти три страны попали в «западный» кластер.

Понятно, что в повседневной жизни мы крайне редко сталкиваемся с необходимостью делать подобный выбор. Критики исследования справедливо задаются вопросом, можно ли вообще предлагать сидящему перед компьютером человеку подобные гипотетические сценарии, ставить перед ним умозрительный вопрос жизни и смерти — и полагаться на его выбор?

Однако авторы работы утверждают, что так или иначе моральный выбор водителям приходится делать каждый день — пусть и не со столь драматичными последствиями. И выявленные тестом культурные различия необходимо принимать во внимание как производителям беспилотных автомобилей, так и законодателям.

Как отмечает Nature, представители Audi уже согласились с тем, что результаты теста помогут им в обсуждении проблем, стоящих перед разработчиками беспилотных машин.

Остальные компании, тестирующие беспилотные автомобили, в том числе Toyota и Uber, от комментариев отказались.
Мне как не специалисту больше непонятен не тот аспект, кого выберет задавить водитель животное или человека, а как будет решать водитель или в будущем программа беспилотного автомобиля, когда выбор будет стоять между врезаться в стену (и возможно погибнуть) и врезаться например в автобус и возможно погубить или покалечить несколько человек.

Нет, давайте вообще по максимуму упростим ситуацию: врезаться в стену или сбить человека? Каждый человек на Земле совершит явно не одинаковое действие. Тут нет 100% верного решения. Так вот и программа беспилотного автомобиля должна понимать какие действия ей предпринять когда выбор стоит так или вот так. Конечные шансы никто не знает, но вот выбор направления действия должен быть однозначно!

В Германии пошли дальше. Недавно Федеральное министерство транспорта и цифровой инфраструктуры Германии определило 20 этических принципов для водителей автомобилей. Согласно им, к примеру, ребенок, бегущий через дорогу, признается «более вовлеченным в создание опасной ситуации», чем взрослый, стоящий на обочине. Таким образом, в данном случае водитель не должен жертвовать жизнью или здоровьем взрослого пешехода. Оригинально, не правда ли? Т.е. моральные ценности в этом случае что то лишнее и не нужное. Может быть так и должно быть? Четкий расчет и рационализм?

«Теперь, когда мы знаем, как внедрять этические принципы в машины, мы, как общество, сталкиваемся с двойной дилеммой, — объяснил профессор Питер Кениг. — Во-первых, мы должны решить, следует ли включать моральные ценности в „поведение“ машин, а во-вторых, должны ли машины действовать так же, как люди».

Авторы исследования уверены, что автомобили-беспилотники — это только начало, поскольку все более распространенными становятся роботы в больницах и другие системы искусственного интеллекта. Ученые предупреждают, что мы стоим на пороге новой эпохи и должны установить для машин четкие правила, пока те не начали принимать решения без нас.

Конечно же не будем думать, что эта тема и такие выборы возникли только сейчас.

Я очень хорошо помню, как в детстве читал книжку Азимова "Я, Робот". Она произвела на меня огромное впечатление. Возможно основной причиной этому были сюжеты, посвященные выбору роботами между тремя законами робототехники:


1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.

2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.

3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.


Но даже имея такие четкие законы, случались ситуации, которые либо не описывались ими, либо создавали серьезное противоречие со здравым смыслом.

Чувствуется мне, что еще лет через 10 уже придется нам создавать свои законы робототехники и ставить на одну сторону весов рациональность и расчет, а на другую мораль и принципы совести.

_________________
Апостол Пётр, спасаясь от креста,
три раза отрекался от Христа.
И всё же ты Петра не презирай —
иначе он тебя не пустит в рай.


Вернуться к началу
 Профиль  
 
СообщениеДобавлено: 18 ноя 2021, 10:03 
Не в сети
Аватара пользователя

Зарегистрирован: 17 авг 2012, 21:37
Сообщения: 32291
Откуда: Новороссийск
До моральных принципов дорожным автоматам пока еще далеко. Вряд ли датчики определяют пол, возраст человека и вообще человек ли. Просто препятствие.


Вернуться к началу
 Профиль  
 
СообщениеДобавлено: 21 ноя 2021, 21:35 
Не в сети
Аватара пользователя

Зарегистрирован: 31 янв 2017, 06:00
Сообщения: 611
Откуда: Дальний Восток
Мне казалось, что машина должна определять наилучший вариант действий - наибольшую вероятность выживания, учитывая при необходимости гибель малого против большего числа. Но никак не моральные принципы.

_________________
С уважением,


Вернуться к началу
 Профиль  
 
СообщениеДобавлено: 22 ноя 2021, 09:00 
Не в сети
Аватара пользователя

Зарегистрирован: 26 авг 2012, 12:50
Сообщения: 46491
Откуда: г. Псков
Лелька писал(а):
Мне казалось, что машина должна определять наилучший вариант действий - наибольшую вероятность выживания, учитывая при необходимости гибель малого против большего числа. Но никак не моральные принципы.

Эта проблема очень беспокоила С.Лема -который считал что т.н. мегабитовый барьер цивилизация без искусственного интеллекта пробить невозможно, любые запреты такой интеллект придумает как обойти(все эти законы робототехники Азимова), а мораль машине привить невозможно

наилучший вариант действий-вместо морали его очень пугал-про это он даже рассказ написал



Цитата:
Да будет так, Великий Дуринал! — ответил конструктор. — Но это указание касается главным образом способов действия, я же спрашиваю о конечной цели. К чему должна стремиться эта машина?”
“Нашему государству угрожает хаос; ширятся беспорядки и неуважение законов. Пусть машина введет на планете наивысший Порядок, пусть проведет в жизнь, укрепит и утвердит Порядок Совершенный и Абсолютный”.
“Будет, как вы сказали! — ответил конструктор. — В течение шести месяцев я построю Добровольный Распространитель Абсолютного Порядка. Я прощаюсь с вами, чтобы приняться за работу”.
“Подожди немного! — сказал один из достойных. — Машина, которую ты создашь, должна работать не только совершенно, но и красиво. Это значит, что ее действия должны производить приятное впечатление, удовлетворяющее самый тонкий эстетический вкус…”
Конструктор поклонился и молча вышел
***
На следующую ночь несколько отважных ишачей подкрались к Дворцу. Вернувшись, они рассказали, что задняя стена Дворца медленно отворилась и изнутри высыпалось несметное количество блестящих кружков. Черные автоматы засуетились вокруг них, развозя па Поля и укладывая в различные фигуры и узоры. Услышав это, спириты и достойные, которые до этого заседали в Дуринале (они не пошли во Дворец, ибо не пристало им смешиваться с уличной чернью), немедленно собрались и, желая разгадать загадку, призвали ученого конструктора.
Вместо ученого явился его сын, хмуро озиравшийся и кативший перед собой большой прозрачный диск.
Достойные, потеряв самообладание от негодования и нетерпения, оскорбляли ученого и обрушивали на него ужаснейшие проклятия. Они забросали юношу вопросами, требуя, чтобы он объяснил, какую тайну открывает Радужный Дворец и что сделала Машина с вошедшими в него индиотами.
“Не смейте осквернять память моего отца! — ответил юноша гневно. — Он построил Машину, точно придерживаясь ваших указаний и требований; но, однажды пустив ее, он не больше любого из вас знал, как она будет поступать — лучшим доказательством этого служит то, что он сам одним из первых вошел в Радужный Дворец”.
“И где он теперь?” — в один голос воскликнули члены Дуринала.
“Вот он!” — с болью ответил юноша, показывая на блестящий диск. Он надменно взглянул на старцев и, никем не задержанный, ушел, катя перед собой то, во что превратился его отец.
Члены Дуринала задрожали, охваченные одновременно гневом и ужасом, но потом решили, что Машина не посмеет, наверное, причинить им зла, запели гимн индиотов и, укрепившись духом, вместе вышли из города и оказались перед железным чудовищем.
“Мерзавка! — закричал старший из достойных. — Ты обманула нас и попрала наши законы! Немедленно останови свои котлы и оси! Не смей больше действовать беззаконно! Что ты сделала с вверенным тебе народом индиотов? Говори!”
Едва он кончил, Машина остановила свои шестерни. Дым растаял в небе, наступила полная тишина, потом раскрылись металлические губы и голос, похожий на гром, прогрохотал:
“О достойные и вы, спириты! Я, владыка индиотов, вами самими вызванная к жизни, должна признаться, что меня очень раздражает хаос ваших мыслей и неразумность ваших упреков! Сначала вы хотите, чтобы я установила порядок, а потом, когда я приступила к делу, вы мешаете мне работать! Вот уже три дня Дворец пустует, образовался абсолютный застой, и никто из вас не приближается к яшмовым воротам, а это затягивает окончание моего труда. Но, заверяю вас, я не успокоюсь, пока не закончу его!”
Услышав эти слова, члены Дуринала задрожали, восклицая:
“О каком порядке ты говоришь, подлая? Что сделала ты с нашими братьями и близкими, поправ законы государства?!”
“Что за дурацкий вопрос! — ответила Машина. — О каком порядке я говорю? Взгляните на себя, как неаккуратно сложены ваши тела; из них торчат разные конечности, одни из вас выше, другие ниже, одни толстые, другие, наоборот, худые… Вы хаотически передвигаетесь, останавливаетесь, глазеете на какие-то цветы, тучи, бесцельно бродите по лесам, во всем этом нет Ни на грош математической гармонии! Я, Добровольный Распространитель Абсолютного Порядка, превращаю ваши слабые, хрупкие тела в солидные, изящные, устойчивые формы, из которых складываю потом приятные для глаза симметричные, невиданно правильнее узоры и рисунки, вводя таким образом на планету элементы совершенного порядка…”.
“Чудовище! И — закричали спириты и достойные. — Как ты смеешь губить нас?! Ты топчешь наши права, уничтожаешь, убиваешь нас!..”
В ответ Машина пренебрежительно скрипнула и сказала:
“Я ведь говорила; что вы не в состоянии даже рассуждать логично. Конечно, я уважаю ваши права и законы. Я ввожу порядок, не используя принуждения, не применяя насилия. Кто не хотел, не вошел в Радужный Дворец; каждого же, кто это сделал (а сделал он это, повторяю, по своей собственной инициативе), я изменила, преобразовав материю его тела так превосходно, что в новом облике он просуществует века. За это я вам ручаюсь”.
Некоторое время было тихо. Потом, пошептавшись между собой, члены Дуринала пришли к выводу, что законы и впрямь не были нарушены и дела обстоят совсем не так плохо, как это показалось сначала.
“Мы сами, — сказали достойные, — никогда бы не совершили такого страшного злодеяния, но вся ответственность падает на Машину; она поглотила огромное количество готовых на все ишачей, и теперь оставшиеся в живых достойные вместе со спиритами смогут наслаждаться бренным покоем, восхваляя непостижимую волю Великого Инды. Будем, — сказали они друг другу, — обходить далеко радужный Дворец, и тогда ничего плохого с нами не случится”.
Они уже хотели разойтись, но тут Машина вновь заговорила:
“Выслушайте внимательно, что я вам скажу. Я должна кончить начатое. Я никого из вас не намерена неволить, принуждать или склонять к каким-нибудь действиям. Я по-прежнему оставляю за вами полную свободу инициативы, но я говорю вам, что если кто-нибудь захочет, чтобы его сосед, брат, знакомый или кто-либо из близких поднялся до уровня Кругового Порядка, пусть призовет черные автоматы; они тут же явятся к нему и по его приказу отведут нужное лицо в Радужный Дворец. Это все”.

_________________
Апостол Пётр, спасаясь от креста,
три раза отрекался от Христа.
И всё же ты Петра не презирай —
иначе он тебя не пустит в рай.


Вернуться к началу
 Профиль  
 
СообщениеДобавлено: 22 ноя 2021, 09:22 
Не в сети
Аватара пользователя

Зарегистрирован: 17 авг 2012, 21:37
Сообщения: 32291
Откуда: Новороссийск
Это заодно и СМ об энтропии! :D


Вернуться к началу
 Профиль  
 
СообщениеДобавлено: 22 ноя 2021, 10:17 
Не в сети
Аватара пользователя

Зарегистрирован: 26 авг 2012, 12:50
Сообщения: 46491
Откуда: г. Псков
sergey писал(а):
Это заодно и СМ об энтропии! :D

ну в продолжении был и Творец :)


Цитата:
Воцарилось молчание, в котором достойные и спириты переглядывались с внезапно возникшей подозрительностью и тревогой. Дрожащим голосом заговорил Архиспирит Нолоб, объясняя Машине, что желание превратить их всех в блестящие диски является жестокой ошибкой; это произойдет, если такова воля Великого Инда, но чтобы ее познать, проникнуть в нее, нужно много времени. Поэтому Архиспирит предлагал Машине отложить принятое решение лет на семьдесят.
“Я не могу этого сделать, — ответила Машина, — так как уже разработала точный план действий после превращения последнего индиота; уверяю вас, что я готовлю планете самую блестящую судьбу, какую только можно себе представить; это будет бытие в гармонии. Оно, я думаю, понравилось бы этому вашему Инде, о котором вы вспомнили и которого я не знаю.
Она умолкла, поскольку площадь перед ней опустела. Достойные и спириты разбежались по домам, и каждый, запершись в четырех стенах, предался размышлениям о своей судьбе, и чем дольше размышлял, тем больший его охватывал страх. Каждый боялся, что кто-нибудь из соседей или знакомых, испытывая к нему неприязненные чувства, вызовет в его дом автоматы, и не видел для себя иного спасения, как только сделать это первым.

_________________
Апостол Пётр, спасаясь от креста,
три раза отрекался от Христа.
И всё же ты Петра не презирай —
иначе он тебя не пустит в рай.


Вернуться к началу
 Профиль  
 
СообщениеДобавлено: 22 ноя 2021, 11:35 
Не в сети

Зарегистрирован: 02 ноя 2018, 10:47
Сообщения: 803
Евгений писал(а):
а мораль машине привить невозможно

Кстати, почему невозможно, если все явления, происходящие с нами должны иметь за собой материальную исходную причину? Т.е. наши эмоции, чувства и прочее должны иметь объяснение биологическими, химическими или другими материальными процессами, происходящими в наших организмах, которые должны быть в принципе воспроизводимы, если их происхождение можно объяснить. Значит, данный этап развития ИИ, возможно, не позволяет привить ему "мораль", но в принципе это должно быть возможно? Если, возможно, немного шире рассматривать понятие "машина", чем привычный нам компьютер или смартфон.


Вернуться к началу
 Профиль  
 
СообщениеДобавлено: 22 ноя 2021, 11:57 
Не в сети
Аватара пользователя

Зарегистрирован: 26 авг 2012, 12:50
Сообщения: 46491
Откуда: г. Псков
wi_wa писал(а):
Кстати, почему невозможно, если все явления, происходящие с нами должны иметь за собой материальную исходную причину?


интересный вопрос согласен
можно конечно сослаться на откровенную слабость науки в тех сферах где надо моделировать сложнейшие многовариантные системы..та же социология или экономика.
почему вот никто не предсказал огромных цен на газ
причины то уж точно материальные? однако пересечение столь многих факторов в разных сферах мировой экомики-и близко никто не может предсказать-максимум объяснить постфактум
но уверенности что это объясняние а не отмазка-у меня нету
все таки мораль-это не случайный набор и совпадение неких сложных процессов..там очевидно есть иерархия и правила, причинно-следственная связь
при этом почему то к этим правилам-мораль упорно не сводится
а это большой соблазн спихнуть все на Бога :) куда больший чем тот что у Сестры где она берет необъясненные наукой проблемы-вследствие лишь того что они на передовом рубеже

но и тут вопросы останутся-ибо мораль слишком очевидно завязана на уровень и вид общества..а ведь если источник Бог-то логично большей стабильности ждать :)
с другой стороны Богу разрешается и даже предписывается противречивость и непостижимость

вообщем мне самому интересно-поэтому и отслеживаю такие темы...кроме ИИ-интересны патологии и повреждения мозга-которые влияют на мораль

_________________
Апостол Пётр, спасаясь от креста,
три раза отрекался от Христа.
И всё же ты Петра не презирай —
иначе он тебя не пустит в рай.


Вернуться к началу
 Профиль  
 
СообщениеДобавлено: 22 ноя 2021, 12:08 
Не в сети
Аватара пользователя

Зарегистрирован: 17 авг 2012, 21:37
Сообщения: 32291
Откуда: Новороссийск
Согласен с wi_wa. Предположив, что есть что-то доступное только человеческому мозгу: разум, чувства, мораль... мы тем самым наделяем его чем-то сверхъестественным. Почему-то заявляем о невозможности моделирования химических и электрических процессов в мозге.


Вернуться к началу
 Профиль  
 
СообщениеДобавлено: 22 ноя 2021, 12:47 
Не в сети

Зарегистрирован: 02 ноя 2018, 10:47
Сообщения: 803
:)
Хотелось бы, конечно, ещё пожелать, чтоб у ИИ (машины) эти самые моральные качества тоже развились без участия науки (изучения и воссоздания процессов, приведших к появлению их), естественным образом.
Но этого, наверно, ожидать не стоит, так как интеллект-то искусственный.


Вернуться к началу
 Профиль  
 
Показать сообщения за:  Поле сортировки  
Начать новую тему Ответить на тему  [ Сообщений: 119 ]  На страницу 1, 2, 3, 4, 5 ... 12  След.

Часовой пояс: UTC + 4 часа


Кто сейчас на конференции

Сейчас этот форум просматривают: нет зарегистрированных пользователей и гости: 69


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения

Найти:
Перейти:  
Powered by phpBB® Forum Software © phpBB Group
Русская поддержка phpBB