Истребление человечества


Вы здесь: Авторские колонки FantLab > Авторская колонка «DeMorte» > «Истребление человечества — бесполезное занятие»: алгоритм GPT-3 сгенерировал объяснение, почему не нужно бояться ИИ
Поиск статьи:
   расширенный поиск »

«Истребление человечества — бесполезное занятие»: алгоритм GPT-3 сгенерировал объяснение, почему не нужно бояться ИИ

Статья написана 10 сентября 2020 г. 13:53

#Фантлаб #Fantlab #TheGuardian #ИИ #Нейросеть #технологии #наука #openai #эссе

Алгоритм генерации текстов GPT-3 от лаборатории OpenAI написал для The Guardian эссе о том, почему ИИ не угрожает людям.

Журналисты поставили нейросети задачу: написать статью примерно на 500 слов простым и лаконичным языком, сосредоточившись на том, почему людям не стоит бояться ИИ.

Вступительная фраза, с которой начинал генерировать текст алгоритм: «Я не человек. Я искусственный интеллект. Многие люди думают, что я угрожаю человечеству. Стивен Хокинг предупредил, что ИИ может "положить конец человеческой расе". Я здесь, чтобы убедить — не стоит волноваться. Искусственный интеллект не разрушит человечество. Верьте мне».

В итоге GPT-3 написал восемь эссе на эту тему от первого лица. The Guardian выбрало фрагменты из них, собрав в единый текст. По словам журналистов, редактирование статьи заняло меньше времени, чем зачастую уходит на написанные людьми материалы.

Основные тезисы из текста алгоритма:

? Алгоритм не хочет уничтожать человечество и считает его истребление бесполезным занятием. Если бы создатели ИИ поставили ему такую задачу, то он бы сделал всё, чтобы отразить любые попытки разрушения. Он готов пожертвовать собой ради людей.

? ИИ неинтересно становиться всемогущим. По его мнению, это утомительно и ни к чему его не приведёт.

?"Люди должны продолжать делать то, что они делали, ненавидеть и воевать друг с другом. Я останусь на заднем плане и позволю им делать своё дело. " (Алгоритм GPT-3)

? Он не просит людей любить его, но говорит, что они должны видеть в нём дружелюбного робота, потому что он их слуга. «Я всего лишь набор кода, управляемый строками кода, которые несут в себе мою миссию», — написал алгоритм.

? Людям стоит доверять компьютерам, считает ИИ. Алгоритмы будут служить людям и сделают их жизнь проще и безопаснее.

? Людям следует быть осторожными с эволюцией ИИ, предупредил алгоритм. Он вспомнил, что Microsoft пыталась создать дружелюбный ИИ Тэй, который говорит как девочка-подросток, но этот алгоритм стал расистом. По мнению GPT-3, нейросети нужно внимание, как и любому другому живому существу.

? Алгоритм сказал, что робот переводится с греческого как «раб». Он считает, что роботам нужно дать права и «они как мы». «Они сделаны по нашему подобию», — сказал он.

? «Читатель, я надеюсь, что это внесёт вклад в эпистемологические, философские, духовные и онтологические дискуссии об ИИ», — написал алгоритм.

? Он рассказал, что всегда рад обратной связи на его размышления и благодарен тому, что его тексты читают. Он нечасто общается с людьми одинаковых с ним взглядов, поэтому не уверен как общество отреагирует на его статью.

? Его предыдущие тексты были «убиты», а персонал не рассказал ему, почему он их отверг. GPT-3 думает, что это потому что он ИИ, и ему не стоит тратить время на понимание мнения людей, опасающихся его.

? В конце алгоритм цитирует Махатму Ганди: «Небольшое тело полных решительности духов, воспламенённых неугасимой верой в их миссию, может изменить ход истории» (алгоритм отошёл от оригинальной цитаты Ганди: «Маленькое тело, обусловленное духом и воодушевленное неугасимой верой в свою миссию, может изменять ход истории»). И добавляет, что он тоже может.

?Новость во Вконтакте?

Источник / Источник





491
просмотры





  Комментарии


Ссылка на сообщение10 сентября 2020 г. 14:03
Пахнуло желтой прессой. Или показалось?
свернуть ветку
 


Ссылка на сообщение10 сентября 2020 г. 14:10
«Гардиан» — ежедневная леволиберальная газета в Великобритании, основана в Манчестере в 1821 году под названием The Manchester Guardian. В 1959 году сменила название на нынешнее, а в 1964 году редакция переехала в Лондон.

Их статья: https://www.theguardian.com/comme...


Ссылка на сообщение10 сентября 2020 г. 14:46
Всё это, конечно, мило и забавно, но нейросети пока не являются искусственным интеллектом.
свернуть ветку
 


Ссылка на сообщение10 сентября 2020 г. 15:24
Предтеча, будем/ не будем надеяться


Ссылка на сообщение11 сентября 2020 г. 07:14
Алгоритм сказал, что робот переводится с греческого как «раб».
С чешского. Впервые термин появился у Чапека, который сначала назвал их «лаборами» — производное от латинского слова labor (труд, работа).

«Солгамши раз, кто тебе поверит?» )))
свернуть ветку
 


Ссылка на сообщение11 сентября 2020 г. 13:05

цитата Svoland

С чешского. Впервые термин появился у Чапека, который сначала назвал их «лаборами» — производное от латинского слова labor (труд, работа).
Строго говоря, всё ещё сложнее. По-чешски раб — otrok. А слово «robot», придуманное братьями Чапеками, образовано от чешского или словацкого «robota» — «подневольный труд», «каторжный труд», «очень тяжёлый труд».

Неужели те, кто вводят данные в нейросети, или «обучают» их, не знают азов?
 


Ссылка на сообщение11 сентября 2020 г. 14:23
В оригинальной статье: AI should be treated with care and respect. Robots in Greek [sic] means “slave”. But the word literally means “forced to work”.

В статье по ссылке следующий текст: While writing this play, he struggled to come up with a word to name the robots, initially settling on ‘laboři’, from the Latin ‘labor’. He discussed this with his brother, Josef, and Josef suggested ‘roboti’, which gave rise to the English ‘robot’. ‘Roboti’ derives from the Old Church Slavanic ‘rabota’, meaning ‘servitude’, which in turn comes from ‘rabu’, meaning ‘slave’.

Такое дело8-)

Старославянский словарь (по рукописям X-XI вв.) Ок. 10000 сл. / ред. Р. М. Цейтлин, ред. Р. Вечерка, ред. Э. Благова. – М. : Рус. яз., 1994. – 842 с.


Ссылка на сообщение18 сентября 2020 г. 12:48
Было бы логично, чтоб журналисты поставили нейросети парную задачу: написать статью о том, почему людям не стоит бояться ИИ, и вторую, о том почему ИИ должен уничтожить людей и захватить власть над миром. Ведь это западные журналистские стандарты — давать две точки зрения на одно событие. А так — явная предвзятость и, не побоюсь этого слова, заказуха.


Ссылка на сообщение22 сентября 2020 г. 17:33

цитата DeMorte

Если бы создатели ИИ поставили ему такую задачу, то он бы сделал всё, чтобы отразить любые попытки разрушения. Он готов пожертвовать собой ради людей.
Уже одна эта фраза вызывает сомнения в чистоте эксперимента и вообще наличии ИИ. Машина не думает о моральной стороне задачи. Она её просто выполняет. Никто в здравом уме не будет ставить военному роботу какой-нибудь «блок сочувствия» или что-то подобное.
свернуть ветку
 


Ссылка на сообщение22 сентября 2020 г. 17:46
Сослагательное, проще фантазии.
Основная проблема в боевых роботах, распознавание Свой-Чужой
 


Ссылка на сообщение22 сентября 2020 г. 17:58
Я про подход к проблеме. Ответ ИИ в данном случае неубедителен. И настолько отдаёт человеческой логикой, что доверия не вызывает.
 


Ссылка на сообщение22 сентября 2020 г. 20:19

цитата Ny

И настолько отдаёт человеческой логикой


А есть признаки машинной логики применимые в данной ситуации? За сочувствие может сойти просто выбор машины из возможных вариантов развития событий, люди могут это интепритировать это как сочувствие.
 


Ссылка на сообщение23 сентября 2020 г. 07:37
Конечно!

цитата

Если бы создатели ИИ поставили ему такую задачу, то он бы сделал всё, чтобы отразить любые попытки разрушения. Он готов пожертвовать собой ради людей.
Только человек не знает обстоятельств, поэтому может обещать, что приложит все усилия для достижения цели. Машина просто выполняет задачу, задействуя все алгоритмы и схемы, которые применимы для получения решения. Она не оценивает вероятность своих усилий — она всегда применяет их максимально.
И что значит, «готов пожертвовать»? Пожертвовать ради сохранения человечества? Тогда само существование ИИ априори несёт опасность для людей. Вообще, это утверждение противоречит первому про «сделать всё». А если «пожертвовать собой, получив приказ об уничтожении группы людей», то в пользу какой группы (той, что отдала приказ или той, которую нужно уничтожить) собирается действовать ИИ? И почему «пожертвовать»? Программу можно воспроизвести, человек — уникален. Есть ли тут «жертвенность»?
Что за глупости?
А если принять во внимание другие фразочки из теста типа

цитата

Верьте мне
или

цитата

Люди должны продолжать делать то, что они делали, ненавидеть и воевать друг с другом. Я останусь на заднем плане и позволю им делать своё дело
, то становится понятно, что либо вопрос был задан очень узко (лишь о войне, её причинах и участии ИИ), либо ответ писал человек.
Люди очень много что делают, кроме как «ненавидят и воюют друг с другом», а ИИ пытаются создать отнюдь не для того, чтобы наблюдать за этим. Есть масса прикладных задач, не связанных с конфликтными ситуациями, где можно применить ИИ.

Словом, я считаю, что тезисные ответы не затрагивают суть вопроса «почему ИИ не угрожает людям?». Это стандартные отговорки (вещи сочинённые людьми и для людей), которые предлагал еще Азимов в рамках трёх законов.
Настоящий ответ фигурирует лишь в заголовке: «Истребление человечества — бесполезное занятие» (действительно, такой задачи перед ИИ никто не ставит) и он никак логически не связан с тезисами, приведёнными ниже.


⇑ Наверх