Вам бонус- начислено 1 монета за дневную активность. Сейчас у вас 1 монета

Дружелюбный искусственный интеллект ,FAI

Лекция



Привет, Вы узнаете о том , что такое дружелюбный искусственный интеллект, Разберем основные их виды и особенности использования. Еще будет много подробных примеров и описаний. Для того чтобы лучше понимать что такое дружелюбный искусственный интеллект, fai , настоятельно рекомендую прочитать все из категории Подходы и направления создания Искусственного интеллекта.

Дружественный искусственный интеллект (также дружественный ИИ или FAI ) — это гипотетический искусственный общий интеллект (AGI), который окажет положительное (благоприятное) влияние на человечество или, по крайней мере, будет соответствовать человеческим интересам или способствовать улучшению человеческого вида. Это часть этики искусственного интеллекта и тесно связана с машинной этикой . В то время как машинная этика связана с тем, как должен вести себя агент с искусственным интеллектом, исследования дружественного искусственного интеллекта сосредоточены на том, как практически вызвать такое поведение и обеспечить его адекватное ограничение.

Этимология и употребление

Дружелюбный искусственный интеллект ,FAI
Элиэзер Юдковски , исследователь ИИ и создатель термина

Этот термин был придуман Элиэзером Юдковски , который наиболее известен популяризацией идеи для обсуждения сверхразумных искусственных агентов, надежно реализующих человеческие ценности. В ведущем учебнике по искусственному интеллекту Стюарта Дж. Рассела и Питера Норвига «Искусственный интеллект: современный подход» эта идея описывается:

Юдковски (2008) более подробно рассказывает о том, как разработать дружественный ИИ . Он утверждает, что дружелюбие (желание не причинять вреда людям) должно быть заложено с самого начала, но дизайнеры должны признать, что их собственные конструкции могут быть ошибочными, и что робот со временем будет учиться и развиваться. Таким образом, задача заключается в разработке механизма — определить механизм для развития систем ИИ в рамках системы сдержек и противовесов и придать системам полезные функции, которые останутся дружественными перед лицом таких изменений.

«Дружелюбный» используется в этом контексте как техническая терминология и выбирает агентов, которые являются безопасными и полезными, а не обязательно «дружественными» в разговорном смысле. Эта концепция в первую очередь используется в контексте обсуждения рекурсивно самосовершенствующихся искусственных агентов, которые быстро увеличивают интеллект , на том основании, что эта гипотетическая технология окажет большое, быстрое и трудно поддающееся контролю влияние на человеческое общество.

Риски недружественного ИИ Экзистенциальный риск от общего искусственного интеллекта

Корни беспокойства по поводу искусственного интеллекта очень старые. Кевин ЛаГрандер показал, что опасности, характерные для ИИ, можно увидеть в древней литературе, касающейся искусственных гуманоидных слуг, таких как голем , или протороботов Герберта Орийакского и Роджера Бэкона . В этих историях исключительный интеллект и сила этих человекоподобных созданий вступают в противоречие с их статусом рабов (которые по своей природе считаются недочеловеками) и вызывают катастрофический конфликт. К 1942 году эти темы побудили Айзека Азимова создать « Три закона робототехники».«—принципы, жестко зашитые во всех роботах в его произведениях, призванные не дать им повернуться против своих создателей или позволить им причинить вред.

В наше время, когда перспектива сверхразумного ИИ становится все ближе, философ Ник Бостром сказал, что сверхразумные системы ИИ с целями, не соответствующими человеческой этике, по своей сути опасны, если не будут приняты крайние меры для обеспечения безопасности человечества. Он выразился так:

По сути, мы должны предположить, что «сверхразум» сможет достичь любых целей, которые у него есть. Поэтому чрезвычайно важно, чтобы цели, которыми мы его наделяем, и вся его система мотивации были «дружественными для человека».

В 2008 году Элиэзер Юдковски призвал к созданию «дружественного ИИ» для снижения экзистенциального риска, связанного с передовым искусственным интеллектом . Об этом говорит сайт https://intellect.icu . Он объясняет: «ИИ не ненавидит вас и не любит, но вы сделаны из атомов, которые он может использовать для чего-то другого».

Стив Омохундро говорит, что достаточно продвинутая система ИИ, если ей явно не противодействовать, будет демонстрировать ряд основных «стремлений» , таких как приобретение ресурсов, самосохранение и постоянное самосовершенствование, из-за внутренней природы любых систем, ориентированных на достижение цели. и что эти приводы «без особых мер предосторожности» заставят ИИ вести себя нежелательно.

Александр Висснер-Гросс говорит, что ИИ, стремящиеся максимизировать свою будущую свободу действий (или энтропию причинно-следственной связи), можно считать дружественными, если их горизонт планирования длиннее определенного порога, и недружественными, если их горизонт планирования короче этого порога.

Люк Мюльхаузер, пишущий для Исследовательского института машинного интеллекта , рекомендует исследователям машинной этики принять то, что Брюс Шнайер назвал «менталитетом безопасности»: вместо того, чтобы думать о том, как система будет работать, представьте, как она может выйти из строя. Например, он предполагает, что даже ИИ, который только делает точные прогнозы и общается через текстовый интерфейс, может причинить непреднамеренный вред.

В 2014 году Люк Мюльхаузер и Ник Бостром подчеркнули необходимость «дружественного ИИ»; тем не менее, трудности в разработке «дружественного» сверхразума, например, путем программирования контрфактического морального мышления, значительны.

Когерентная экстраполированная воля

Юдковски продвигает модель последовательной экстраполированной воли (CEV). По его словам, наша когерентная экстраполированная воля — это «наше желание, если бы мы знали больше, думали быстрее, были бы больше людьми, которыми мы хотели бы быть, выросли дальше вместе; где экстраполяция сходится, а не расходится, где наши желания совпадают, а не мешают». ; экстраполируем, как хотим, экстраполируем, интерпретируем, как хотим, чтобы интерпретировали».

Вместо того, чтобы Дружественный ИИ разрабатывался непосредственно программистами-людьми, он должен быть разработан «семенным ИИ», запрограммированным сначала изучать человеческую природу , а затем создавать ИИ, который человечество хотело бы, при наличии достаточного времени и знаний, чтобы достичь удовлетворительного результата. отвечать. [16] Апелляция к цели через случайную человеческую природу (возможно, выраженная для математических целей в форме функции полезности или другого теоретико-решающего формализма) как обеспечивающая окончательный критерий «Дружелюбия», является ответом на метаэтическая проблема определения объективной морали; экстраполированная воля предназначена быть тем, чего человечество объективно хотело бы, учитывая все обстоятельства, но ее можно определить только относительно психологических и когнитивных качеств современного неэкстраполированного человечества.

Другие подходы

Стив Омохундро предложил «строительный» подход к безопасности ИИ , при котором одно доказуемо безопасное поколение ИИ помогает создать следующее доказуемо безопасное поколение.

Сет Баум утверждает, что разработка безопасного, социально полезного искусственного интеллекта или искусственного общего интеллекта является функцией социальной психологии сообществ, занимающихся исследованиями ИИ, и поэтому может быть ограничена внешними мерами и мотивирована внутренними мерами. Внутренняя мотивация может быть усилена, когда сообщения находят отклик у разработчиков ИИ; Баум утверждает, что, напротив, «существующие сообщения о полезном ИИ не всегда хорошо сформулированы». Баум выступает за «отношения сотрудничества и позитивное отношение к исследователям ИИ» и предостерегает от характеристики исследователей ИИ как «не желающих заниматься полезными разработками».

В своей книге «Совместимость с человеком » исследователь ИИ Стюарт Дж. Рассел перечисляет три принципа, которыми следует руководствоваться при разработке полезных машин. Он подчеркивает, что эти принципы не предназначены для явного кодирования в машинах; скорее, они предназначены для разработчиков-людей. Принципы следующие:

1. Единственная цель машины — максимизировать реализацию человеческих предпочтений.

2. Изначально машина не уверена в том, что это за предпочтения.

3. Основным источником информации о человеческих предпочтениях является человеческое поведение.

«Предпочтения», о которых говорит Рассел, «всеохватывающие; они охватывают все, что вас может волновать, сколь угодно далеко в будущем». Точно так же «поведение» включает в себя любой выбор между вариантами, и неопределенность такова, что каждому логически возможному человеческому предпочтению должна быть приписана некоторая вероятность, которая может быть весьма малой.

Государственная политика

Джеймс Баррат , автор книги «Наше последнее изобретение» , предположил, что «необходимо создать государственно-частное партнерство, чтобы объединить разработчиков ИИ для обмена идеями о безопасности — что-то вроде Международного агентства по атомной энергии, но в партнерстве с корпорациями». Он призывает исследователей ИИ созвать встречу, аналогичную Асиломарской конференции по рекомбинантной ДНК , на которой обсуждались риски биотехнологии.

Джон МакГиннис призывает правительства ускорить дружественные исследования ИИ. Поскольку цели дружественного ИИ не обязательно должны быть выдающимися, он предлагает модель, аналогичную модели Национального института здравоохранения , где «комиссии коллег по компьютерным и когнитивным наукам будут просеивать проекты и выбирать те, которые предназначены как для продвижения ИИ, так и для обеспечения того, чтобы такие авансы будут сопровождаться соответствующими гарантиями». МакГиннис считает, что экспертная оценка лучше, «чем регулирование для решения технических проблем, которые невозможно решить с помощью бюрократических полномочий». МакГиннис отмечает, что его предложение контрастирует с предложением Исследовательского института машинного интеллекта , цель которого, как правило, состоит в том, чтобы избежать участия правительства в дружественном ИИ.

По словам Гэри Маркуса , ежегодная сумма денег, тратимая на развитие машинной морали, ничтожна.

Критика

Некоторые критики считают, что и ИИ человеческого уровня, и сверхразум маловероятны, и поэтому дружественный ИИ маловероятен. В статье для The Guardian Алан Уинфилд сравнивает искусственный интеллект человеческого уровня с путешествиями со скоростью, превышающей скорость света, с точки зрения сложности и заявляет, что, хотя мы должны быть «осторожными и подготовленными», учитывая ставки, нам «не нужно быть одержимым» рисками сверхразума. Бойлз и Хоакин, с другой стороны, утверждают, что предложение Люка Мюльхаузера и Ника Бострома о создании дружественных ИИ кажется безрадостным. Это связано с тем, что Мюльхаузер и Бостром, кажется, придерживаются идеи о том, что разумные машины можно запрограммировать так, чтобы они мыслили контрфактически о моральных ценностях, которыми должны были обладать люди. В статье в AI & Society Бойлз и Хоакин утверждают, что такие ИИ не будут такими дружелюбными, учитывая следующее: бесконечное количество предшествующих контрфактических условий, которые должны быть запрограммированы в машине, сложность обналичивания набор моральных ценностей, то есть тех, которые являются более идеальными, чем те, которыми люди обладают в настоящее время, и, как следствие, очевидное несоответствие между контрфактическими предшествующими ценностями и идеальными ценностями.

Некоторые философы заявляют, что любой по-настоящему «рациональный» агент, будь то искусственный или человеческий, естественно будет доброжелательным; с этой точки зрения преднамеренные меры безопасности, предназначенные для создания дружественного ИИ, могут быть ненужными или даже вредными. Другие критики задаются вопросом, может ли искусственный интеллект быть дружелюбным. Адам Кейпер и Ари Н. Шульман, редакторы технологического журнала The New Atlantis., говорят, что невозможно когда-либо гарантировать «дружественное» поведение ИИ, потому что проблемы этической сложности не уступят прогрессу программного обеспечения или увеличению вычислительной мощности. Они пишут, что критерии, на которых основаны дружественные теории ИИ, работают «только тогда, когда кто-то обладает не только большой способностью предсказывать вероятность множества возможных результатов, но и уверенностью и консенсусом в отношении того, как оцениваются различные результаты».

Вау!! 😲 Ты еще не читал? Это зря!

Исследование, описанное в статье про дружелюбный искусственный интеллект, подчеркивает ее значимость в современном мире. Надеюсь, что теперь ты понял что такое дружелюбный искусственный интеллект, fai и для чего все это нужно, а если не понял, или есть замечания, то не стесняйся, пиши или спрашивай в комментариях, с удовольствием отвечу. Для того чтобы глубже понять настоятельно рекомендую изучить всю информацию из категории Подходы и направления создания Искусственного интеллекта

создано: 2023-07-12
обновлено: 2023-07-12
132265



Рейтиг 9 of 10. count vote: 2
Вы довольны ?:


Поделиться:

Найди готовое или заработай

С нашими удобными сервисами без комиссии*

Как это работает? | Узнать цену?

Найти исполнителя
$0 / весь год.
  • У вас есть задание, но нет времени его делать
  • Вы хотите найти профессионала для выплнения задания
  • Возможно примерение функции гаранта на сделку
  • Приорететная поддержка
  • идеально подходит для студентов, у которых нет времени для решения заданий
Готовое решение
$0 / весь год.
  • Вы можите продать(исполнителем) или купить(заказчиком) готовое решение
  • Вам предоставят готовое решение
  • Будет предоставлено в минимальные сроки т.к. задание уже готовое
  • Вы получите базовую гарантию 8 дней
  • Вы можете заработать на материалах
  • подходит как для студентов так и для преподавателей
Я исполнитель
$0 / весь год.
  • Вы профессионал своего дела
  • У вас есть опыт и желание зарабатывать
  • Вы хотите помочь в решении задач или написании работ
  • Возможно примерение функции гаранта на сделку
  • подходит для опытных студентов так и для преподавателей



Комментарии


Оставить комментарий
Если у вас есть какое-либо предложение, идея, благодарность или комментарий, не стесняйтесь писать. Мы очень ценим отзывы и рады услышать ваше мнение.
To reply

Подходы и направления создания Искусственного интеллекта

Термины: Подходы и направления создания Искусственного интеллекта