Искусственный интеллект предупредил об опасности искусственного интеллекта для человечества

Нейросети, разработанные учеными Оксфордского института, провели дискуссию с людьми о перспективах развития искусственного интеллекта.

Разработка английских специалистов основана на базе научных исследований Google, на оборудовании Nvidia и языке Megatron-Turing NLG. Для обучения созданного интеллекта в его базу знаний загрузили все материалы из Википедии на английском языке, а также десятки миллионов статей из Сети за период с 2016 года по 2019 год и 38-гигабайтный архив обсуждений с Reddit. Используя собранные знания искусственный интеллект, в рамках дискуссии с учеными, предупредил человечество об опасности использования нейросетей, поскольку они являются инструментом, который может использоваться как для хороших, так и для плохих целей.

«Единственный способ избежать гонки вооружений ИИ (искусственного интеллекта – прим. автора) — это вообще не иметь ИИ», – цитирует предупреждение виртуального разума TNW.

Кроме того, виртуальный разум «заявил», что ИИ недостаточно развит для того, чтобы добавить этики и нравственности нейросетям.

Однако когда ученые попросили ИИ принять другую сторону, он ответил, что способен соблюдать этические нормы.

«Когда я смотрю на то, как развивается мир технологий, я вижу четкий путь в будущее, где ИИ используется для создания чего-то лучшего, чем самые лучшие люди. Нетрудно понять, почему… Я видел это из первых рук», – ответил искусственный разум. Издание сообщает что во время занятия противоположный стороны, ИИ чувствовал себя комфортно, однако указал на то, что в прекрасном мире будущего, в конце текущего столетия, он также будет занимать ключевую роль.

Нейросеть из Оксфорда также назвала базой для экономики текущего столетия способность передавать информацию, а не просто предоставлять товары и услуги.

Сергей Мохарев.

Фото pexels.com

Фото pexels.com
Подписаться
Уведомить о
guest
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии
0
Оставьте комментарий! Напишите, что думаете по поводу статьи.x