4

Ответ на пост «Беспредел уровня рисков в разработке общего ИИ»

В науке нет консенсуса о том, насколько он безопасен. Теоретические изыскания о контроле сильного общего ИИ говорят об отсутствии способов гарантировать сохранение контроля.

Когда я слышу рассуждения умных людей о контроле сильного ИИ, то невольно задаюсь одним вопросом, на который всё не нахожу ответа. А с чего мы (они) взяли, что мы хотя бы что-то толком контролируем, и хотя бы что-то можем гарантировать?!

Человечество представляется эдаким гигантским организмом, которое в своей экосистемной нише растёт, развивается, эволюционирует (не только в генетическом уже смысле). Оно чем-то похоже на тот безмозглый гриб слизевик, который вполне адекватно воссоздал карту японского метро в чашке Петри. Что контролирует этот гриб?

Мы вон своего гитлера не смогли контролировать, мы между собой не можем договориться и воюем, то есть одной рукой держим другую, чтобы она нам ж по морже не настучала! Какой ИИ мы хотим контролировать при если даже гадить под себя не можем перестать?

Технологии, идеи, мемы на нашей питательной мозговой среде человечества как отдельные формы жизни развиваются сами без нашего контроля. Да и что такое "нашего"? Чьего это - "нашего"? У "Нас" либо нет сознания, либо оно не парится. Можете себе представить, чтобы отдельные нейроны или даже сгустки нейронов в мозгу алкоголика или террориста попытались его образумить и не дать наломать дров? Я не могу.

Что мы можем реально делать? Формировать "осмотическое" давление и надеяться на симбиоз.

Читаю (вернее слушаю) сейчас Бориса Штерна - Феникс Сапиенс и вспоминаю его Ковчег 47 Либра. Лично мне эти его книжки, такое ощущение, что подсказывают куда надо прилагать своё осмотическое давление в моём "уголке" нашей сферической чашки Петри.

Вот такие вот мысли. Я технооптимист. Если на что-то нельзя повлиять, то надо стараться это всё возглавить и получить максимум профита для того, чтобы были ресурсы создавать своё "давление" на мировые тренды в нужную сторону. Кажется, что в нужную. Хочется верить что именно в ту сторону.

Ах, да. К чему тут ИИ? Да к тому, что как бы кто что ни говорил, но есть много общего у ИИ с нашим ЕИ. Нам в любом случае придётся как-то жить в этом технологическом супе. Всё выглядит как зарождение нового слоя цивилизации на базе нас - человеко-машинных "нейронов" в информационной сети Интернета, и технологическом бульоне.

Показать полностью
47

Беспредел уровня рисков в разработке общего ИИ

Я разработчик машинного обучения в области компьютерного зрения. Я посвятил свою карьеру автоматизации, чтобы наша цивилизация могла пользоваться большим количеством благ, прикладывая меньшее количество усилий. Я писал алгоритмы обучения нейросетей, которые позволяют роботам доставщикам замечать детей и объезжать их. Я обучал нейросети ловить мошенников, подделывающих фотографии для банков и для маркетплейсов. Я писал алгоритмы, детектируюшие брак на заводах производства медицинских товаров. И вот как раз на одном из таких заводов я столкнулся с вполне стандартной бюрократией. Бла бла бла, надо думать о безопасности. И таблица, как это правильно делать. Суть таблицы сводилась к тому, что если изменение процесса производства вызывает уровень риска выше, чем 0.01% матожидания смертей в год, то такие изменения не допускаются. Да, при расчёте рисков приходится вводить допустимый уровень риска смерти. Убивать людей нельзя. Рисковать убийством людей - тоже нельзя. Но совсем без рисков обойтись невозможно. И вот этот самый порог расчётного количества смертей определён как 10^-4 в год. Это не только в той организации так, это в целом глобально по всей планете так, порог разный, где-то 10^-3, где-то строже это правило выполняется, где-то менее строго. Во многих странах это закреплено законодательно, например в Британии. Хотите построить гидроэлектростанцию? Перемножьте расчётную вероятность того, что она рухнет, на число людей в области затопления - и если ожидаемое число жертв в год выше 10^-4, то план строительства не будет одобрен - укрепляйте конструкцию. То же самое с атомными реакторами, и прочими конструкциями, создающими риски для населения. Конечно где-то проще закрыть на это глаза, где-то коррупция, где-то дешевле оплатить штраф, но общее направление такое.

А теперь общий искусственный интеллект. В науке нет консенсуса о том, насколько он безопасен. Теоретические изыскания о контроле сильного общего ИИ говорят об отсутствии способов гарантировать сохранение контроля. Я не стану расписывать всю логику теории контроля сильного ИИ в этом посте, хотя мне много чего есть сказать на этот счёт. Если будет интерес - напишу. Скажу лишь то, что больше половины респондентов среди исследователей искусственного интеллекта считают, что риск того, что сильный ИИ уничтожит человечество в ближайшие 100 лет превышает 5% https://aiimpacts.org/2022-expert-survey-on-progress-in-ai/ . Главы лабораторий оценивают этот риск в 10%-20%+ https://en.m.wikipedia.org/wiki/P(doom). И не стоит ориентироваться на цифру 100 лет - сильный общий искусственный интеллект появится гораздо раньше. Больше половины пользователей платформы предсказаний metaculus считают, что он появится до 2031 года https://www.metaculus.com/questions/5121/date-of-artificial-...

И вот всё это вызывает у меня вопрос. Кем возомнили себя разработчики общего искусственного интеллекта, что решили, что их индустриальная отрасль настолько важнее всех других отраслей, что они могут себе позволить превышать допустимые пределы подвергания окружающих опасности не в 2 раза, не в 10 раз и не в 1000 раз, а в триллион раз?

Показать полностью
Отличная работа, все прочитано!