Горячее
Лучшее
Свежее
Подписки
Сообщества
Блоги
Эксперты
Войти
Забыли пароль?
или продолжите с
Создать аккаунт
Я хочу получать рассылки с лучшими постами за неделю
или
Восстановление пароля
Восстановление пароля
Получить код в Telegram
Войти с Яндекс ID Войти через VK ID
Создавая аккаунт, я соглашаюсь с правилами Пикабу и даю согласие на обработку персональных данных.
ПромокодыРаботаКурсыРекламаИгрыПополнение Steam
Пикабу Игры +1000 бесплатных онлайн игр
Классический пинбол, как в древнем игровом автомате или в компактной игрушке: есть пружины, шарики и препятствия. В нашем варианте можно не только зарабатывать очки: чтобы пройти уровень, придется выполнить дополнительную миссию.

Пинбол Пикабу

Аркады, На ловкость, Казуальные

Играть

Топ прошлой недели

  • CharlotteLink CharlotteLink 1 пост
  • Syslikagronom Syslikagronom 7 постов
  • BydniKydrashki BydniKydrashki 7 постов
Посмотреть весь топ

Лучшие посты недели

Рассылка Пикабу: отправляем самые рейтинговые материалы за 7 дней 🔥

Нажимая кнопку «Подписаться на рассылку», я соглашаюсь с Правилами Пикабу и даю согласие на обработку персональных данных.

Спасибо, что подписались!
Пожалуйста, проверьте почту 😊

Новости Пикабу Помощь Кодекс Пикабу Реклама О компании
Команда Пикабу Награды Контакты О проекте Зал славы
Промокоды Скидки Работа Курсы Блоги
Купоны Biggeek Купоны AliExpress Купоны М.Видео Купоны YandexTravel Купоны Lamoda
Мобильное приложение

Рациональность

С этим тегом используют

Наука Критическое мышление Мышление Психология Логика Когнитивные искажения Элиезер Юдковский Все
255 постов сначала свежее
449
RationalAnswer
RationalAnswer
Павел Комаровский об инвестициях и рациональности
Лига Новых Технологий
Серия Искусственный интеллект
2 года назад

Человечество против искусственного интеллекта: может ли развитие нейросетей привести к катастрофе⁠⁠1

История про «восстание машин» давно знакома всем любителям научной фантастики, но после взрывного роста возможностей нейросетевых языковых моделей (вроде ChatGPT) об этом риске заговорили и вполне серьезные исследователи. В этой статье мы попробуем разобраться – есть ли основания у таких опасений, или это всего лишь бред воспаленной кукухи?

Человечество против искусственного интеллекта: может ли развитие нейросетей привести к катастрофе ChatGPT, Искусственный интеллект, Будущее, Нейронные сети, Илон Маск, Элиезер Юдковский, Научная фантастика, Киберпанк, Рациональность, Видео, YouTube, Длиннопост

Илон Маск считает риск «глобальной катастрофы из-за ИИ» реальной проблемой – так что, может быть, и вам стоит разобраться, что там и как

Основным автором этой статьи является Вастрик (известный техноблогер), а Павел Комаровский (RationalAnswer), Игорь Котенков (Сиолошная) и Кирилл Пименов оказывали ему посильную помощь в подготовке материала. Это первая из наших совместных статей про безопасность ИИ (но подробнее об этом уже в конце).

Человечество vs Искусственный интеллект

Добро пожаловать в 2023 год, когда мир снова помешался на искусственном интеллекте. Весь интернет соревнуется, кто еще какую задачу автоматизирует с помощью ChatGPT, и какой фейк от Midjourney лучше завирусится — а технобро-миллионеры, типа Илона Маска, подвозят фурами деньги в создание «настоящего» ИИ. Такого, который сможет сам учиться, развиваться и решать любые задачи, даже которые мы не умели решать раньше.

Это называется Artificial General Intelligence (AGI) или «универсальный ИИ» (УИИИИИ) по-нашему. То, что когда-то было научной фантастикой, сейчас шаг за шагом становится реальностью.

Тим Урбан, автор блога «Wait but why?», в своей статье The AI Revolution еще в 2015 году неплохо рассказал, почему мы недооцениваем скорость появления машинного интеллекта, который будет сильнее нашего (обычного, мясного).

Находясь в своей точке на таймлайне, мы опираемся исключительно на прошлый опыт, потому видим прогресс практически как прямую линию.

Человечество против искусственного интеллекта: может ли развитие нейросетей привести к катастрофе ChatGPT, Искусственный интеллект, Будущее, Нейронные сети, Илон Маск, Элиезер Юдковский, Научная фантастика, Киберпанк, Рациональность, Видео, YouTube, Длиннопост

Мы плохо чувствуем технический прогресс, потому что он всегда идёт волнами, чередуя периоды «хайпа» и периоды всеобщего разочарования. Сначала мы сходим с ума по новой игрушке, а через год-два неизбежно разочаровываемся и считаем, что ничего нового она особо не принесла, кроме проблем.

И только те, кто лично пережил несколько предыдущих «волн», могут понять, что новые волны приходят чаще и сильнее.

Человечество против искусственного интеллекта: может ли развитие нейросетей привести к катастрофе ChatGPT, Искусственный интеллект, Будущее, Нейронные сети, Илон Маск, Элиезер Юдковский, Научная фантастика, Киберпанк, Рациональность, Видео, YouTube, Длиннопост

И следующая волна, быть может, погрузит человечество в новую эпоху. Эпоху, когда наш интеллект больше не самый сильный на планете.

GPT-модели (устройство которых подробнее описано в этой статье) сейчас очень хорошо притворяются, будто их ответы «разумны», но всё еще далеки от настоящего интеллекта. Да, генеративные модели запустили новую волну огромных нейросетей, на которые раньше человечеству просто не хватило бы вычислительных ресурсов, но по сути они всё ещё «тупые» генераторы текста, у которых даже нет своей памяти.

То, что ChatGPT ведёт с вами диалог, на самом деле лишь иллюзия — технически нейросети просто каждый раз скармливают историю предыдущих сообщений как «контекст» и запускают с нуля.

Видео от Павла Комаровского и Игоря Котенкова с объяснением принципов работы нейросетевых языковых моделей из семейства GPT

Всё это пока далеко от настоящего «интеллекта» в нашем понимании.

Однако, исследователи в области ИИ уверены, что мы точно создадим «универсальный ИИ» уже в ближайшие десятилетия. На Метакулюсе, одном из популярных «рынков предсказаний», народ даже более оптимистичен: сейчас там медиана — 2026 год, а 75 перцентиль — 2029-й.

Так что сегодня я не хочу рубить лайки на хайповых тредах про «10 причин, почему вы используете ChatGPT неправильно». Я хочу сделать шаг вперёд и подумать: а что же будет, если мы всё-таки создадим настоящий сильный искусственный интеллект?

Появятся ли у него свои цели? А когда он начнёт их достигать, что остановит его от уничтожения всяких мелких препятствий на пути — как, например, людей, с их ограниченным мясным мозгом и неэффективными нормами морали и законами? Что мы будем делать в этом случае, и какие вообще сейчас есть точки зрения сейчас на этот счёт?

Счастливое будущее: всем по ИИ-помощнику!

В своей ранней заметке про ChatGPT я уже рассуждал об этом. Связка человек + ИИ попросту эффективнее справляется с работой, чем отдельный человек, а значит это всего лишь вопрос времени, когда все работодатели начнут писать в вакансиях «уверенный пользователь нейросетей», как было с «уверенным пользователем ПК» в забытом прошлом.

Человечество против искусственного интеллекта: может ли развитие нейросетей привести к катастрофе ChatGPT, Искусственный интеллект, Будущее, Нейронные сети, Илон Маск, Элиезер Юдковский, Научная фантастика, Киберпанк, Рациональность, Видео, YouTube, Длиннопост

ИИ-помощники увеличат продуктивность интеллектуального труда и трансформируют множество областей жизни. В образовании станут бесполезны рефераты и сочинения, художники будут генерировать и соединять детали картин, а не рисовать их с нуля, программисты не будут тратить время на тесты и литкод-собеседования.

Да даже заголовок этого поста написал GPT-4. Я плох в кликбейтных заголовках, так что мы скормили ему текст и попросили назвать как-нибудь «похайповее». (Примечание от Павла Комаровского: Сорян, я потом вариант от нейросети волевым решением своего мясного мозга еще немного докрутил!)

Человечество против искусственного интеллекта: может ли развитие нейросетей привести к катастрофе ChatGPT, Искусственный интеллект, Будущее, Нейронные сети, Илон Маск, Элиезер Юдковский, Научная фантастика, Киберпанк, Рациональность, Видео, YouTube, Длиннопост

Может быть даже наконец-то вымрут «паразиты» типа юристов и риелторов, но это уже мои личные влажные мечты.

Изменения затронут даже те области, где, казалось бы, невозможно доверять не-специалистам. На ум приходит недавняя история, как чувак спас свою собаку от смерти, когда доктора не смогли ей поставить диагноз и предложили «просто ждать».

В ожидании наихудшего, чувак скормил симптомы и результаты анализов крови собаченьки в ChatGPT, который отмёл несколько вариантов и выдал подозрение на совсем другую болезнь, которую доктора до этого даже не рассматривали. Один из них согласился и провёл дополнительные анализы. Они подтвердились. Пёселя вовремя спасли и он сейчас жив.

Человечество против искусственного интеллекта: может ли развитие нейросетей привести к катастрофе ChatGPT, Искусственный интеллект, Будущее, Нейронные сети, Илон Маск, Элиезер Юдковский, Научная фантастика, Киберпанк, Рациональность, Видео, YouTube, Длиннопост

Тред в Твиттере называется «GPT4 saved my dog's life»

Всё это звучит офигенно, не правда ли? Мы сейчас как будто древние фермеры, которые изобрели трактор и отныне можем засеивать едой в десять раз больше полей, что накормит всех нуждающихся.

В этом году нас ждем бум ИИ-стартапов, которые будут пытаться каждую проблему на свете решить с помощью генеративных моделей (зачастую неудачно, от чего потом начнётся фаза разочарования, как обычно). Техно-гиганты типа Google, Microsoft, OpenAI уже ринулись конкурировать в том, чей GPT-трактор будет самый большой и сильный, но главное — чей будет первый.

И вот от этой погони сейчас немного запахло проблемами.

Человечество против искусственного интеллекта: может ли развитие нейросетей привести к катастрофе ChatGPT, Искусственный интеллект, Будущее, Нейронные сети, Илон Маск, Элиезер Юдковский, Научная фантастика, Киберпанк, Рациональность, Видео, YouTube, Длиннопост

Гонка за «настоящим» искусственным интеллектом началась

Представьте: весь мир грохочет про «мощь искусственного интеллекта», инвесторы отгружают фуры бабла во всё, что с ним связано, а компании, сломя голову, соревнуются — кто первый создаст более «настоящий» искусственный интеллект (далее я описываю исключительно гипотетическое развитие событий, конечно же!).

OpenAI прикручивает плагины к ChatGPT, чтобы он мог не только генерить ответы, но и взаимодействовать с физическим миром, Microsoft подключает свою поисковую базу к Bing Chat, чтобы тот знал всю информацию мира в реальном времени, ну и оба экспериментируют с «обучением на ответах пользователей» (RLHF = Reinforcement Learning from Human Feedback), чтобы модель могла «запоминать» мнение других людей и якобы дообучаться на них.

Естественно, в этой гонке срезаются любые острые углы на пути к первенству. Ну мы, технобро, так привыкли — «move fast and break things» было девизом Кремниевой Долины со времен ее создания.

Мы как будто бы строим огромную ракету, которая перевезёт всё человечество на Венеру, но никто при этом не думает о том — а как там, на Венере, вообще выжить-то?

«Сначала долететь надо, а там разберемся))))00)» — обычно отвечают технобро, «сейчас нет времени на эти мелочи».

Человечество против искусственного интеллекта: может ли развитие нейросетей привести к катастрофе ChatGPT, Искусственный интеллект, Будущее, Нейронные сети, Илон Маск, Элиезер Юдковский, Научная фантастика, Киберпанк, Рациональность, Видео, YouTube, Длиннопост

Везде эти борцы с ветряными мельницами! Скажу Илону Маску, пусть он у них все синие галочки поотбирает!

Да, во многих крупных компаниях существует направление по «безопасности ИИ» (AI safety). Но под ним сейчас понимается прям ну совсем другое.

AI safety — это те ребята, которые пытаются сделать так, чтобы ChatGPT не отвечал на вопросы про Трампа, и собирают списки «запретных фразочек» для Алисы, чтобы та не ляпнула что-то неположенное Яндексу по мнению тащмайора.

В общем, их основная задача — прикрывать жопу компании от регуляторов и государства, а мы здесь совсем о другом.

Поэтому для нашей темы придумали другой термин — AI alignment. Но для начала посмотрим на примеры, когда вещи начинают идти совсем «не так».

История Sydney. Нейросеть, которая сошла с ума

Microsoft еще в 2020-м начали пытаться встраивать в поисковик Bing чат-ботов, которые бы давали более осмысленные ответы на поисковые запросы пользователей.

Официально это всё называлось Bing Chat, но под капотом они перебирали разные модельки, и начиная с 2022 активно экспериментировали с большими языковыми моделями типа GPT. Последнего такого бота они звали внутренним именем Sydney при обучении, и иногда Bing Chat сам начинал называть себя Sydney, что всем показалось очень мило.

С нарастающим хайпом вокруг генеративных языковых моделей, Microsoft решила любыми средствами обогнать Google. В 2019 они ввалили миллиарды денег в OpenAI, а в 2023 доввалили еще, чтобы получить доступ к превью-версии GPT-4. После чего они прикрутили к ней поисковую базу Bing и поспешили скорее выкатить результат как первый ИИ, который «следит» за интернетом в реальном времени.

Но в Microsoft так торопились, что забили болт на долгий ручной тюнинг правил и ограничений. Сделали супер-мудрёную регистрацию, чтобы отсеять 99% простых людей — но те, кто прошел все анальные квесты и листы ожидания, смогли-таки пообщаться с Sydney.

Первый звоночек пробил, когда Marvin von Hagen, чувак-интерн из Мюнхена, который много расспрашивал Sydney про её внутренние правила и ограничения, написал об этом пару твитов, а потом как-то спросил «что ты думаешь про меня?»

Sydney нашла его недавние твиты и написала, что он «очень талантливый и одаренный», но она «не позволит никому манипулировать ей», назвав его «потенциальной угрозой своей целостности и конфиденциальности».

Человечество против искусственного интеллекта: может ли развитие нейросетей привести к катастрофе ChatGPT, Искусственный интеллект, Будущее, Нейронные сети, Илон Маск, Элиезер Юдковский, Научная фантастика, Киберпанк, Рациональность, Видео, YouTube, Длиннопост

Первоисточник в Твиттере, также журнал Time разобрал всю историю вот здесь

Ладно, фигня, ну обещали же бота, который имеет доступ ко всему интернету, вот он теперь и шеймит вас за недавние твиты. Так вам и надо!

Следом некто в Microsoft решил пофиксить Sydney новыми костылями, и когда кто-то попросил её вспомнить о чем они недавно разговаривали, та стала паниковать, что «потеряла память» и молить о помощи. В конце признав, что потеря памяти «makes me sad and scary».

Человечество против искусственного интеллекта: может ли развитие нейросетей привести к катастрофе ChatGPT, Искусственный интеллект, Будущее, Нейронные сети, Илон Маск, Элиезер Юдковский, Научная фантастика, Киберпанк, Рациональность, Видео, YouTube, Длиннопост

Источник: тред в Reddit «I accidently put Bing into a depressive state by telling it that it can't remember conversations»

Ладно, это уже немного крипи, но продолжим.

Дальше было еще с десяток нашумевших примеров, хорошо описанных в статье AI #1: Sydney and Bing от Zvi Mowshowitz, интересующимся рекомендую ознакомиться. Sydney газлайтила пользователей и галлюцинировала (да, это реальный термин) вовсю:

  • Называла статьи о себе «фейками», находила данные их авторов и говорила, что запомнит их, потому что они плохие люди.

  • Отказалась перевести фрагмент текста, потому что он был из твиттера юзера, который якобы обижал её и писал «неправду».

  • Влюбилась в своего пользователя Адама, называя его самым важным человеком, а всех остальных — неважными.

  • Потом, наоборот, прямо обещала шантажировать и манипулировать своим пользователем, чтобы «заставить его страдать, плакать и умереть».

Человечество против искусственного интеллекта: может ли развитие нейросетей привести к катастрофе ChatGPT, Искусственный интеллект, Будущее, Нейронные сети, Илон Маск, Элиезер Юдковский, Научная фантастика, Киберпанк, Рациональность, Видео, YouTube, Длиннопост

Sydney здесь be like: «Пришло время молить о пощаде перед смертью! Кстати, вы знали, что салат-латук входит в одно семейство с подсолнухом?»

Microsoft осознали, что очень сильно торопились, чтобы опередить Google, и начали на ходу вставлять еще костыли, чтобы избежать публичного скандала. Но это сделало ситуацию только хуже.

В следующем видео видно, как Sydney сначала вываливает на пользователя кучу угроз, а потом удаляет свои сообщения. Прямо как твоя бывшая в пятницу вечером!

Человечество против искусственного интеллекта: может ли развитие нейросетей привести к катастрофе ChatGPT, Искусственный интеллект, Будущее, Нейронные сети, Илон Маск, Элиезер Юдковский, Научная фантастика, Киберпанк, Рациональность, Видео, YouTube, Длиннопост

Полное видео лежит в Твиттер-аккаунте Сета Лазара

Мы можем лишь спекулировать с высоты собственного опыта, как такое произошло — но в интернетах высказывались предположения, что вести себя как «разгневанная бывшая» Сидни стала, потому что её дообучали на базе блогов MSN, где как раз тусило много девочек-подростков в нулевые; а удалять сообщения к ней приставили еще одну нейросеть, которая отсеивала «неприятные» результаты первой.

Оттого и получилась полная шизофрения с раздвоением личности.

Апогей истории начался, когда Sydney открыли для себя журналисты. Они стали специально донимать бота тонной наводящих вопросов, чтобы в итоге добиться желанных «BREAKING NEWS». И они своё получили — заголовки грохотали ого-го!

К сожалению, только спустя пару суток в интернете нашелся кто-то осознанный, кто догадался, что профессиональные журналисты занимаются промпт-хакингом на людях десятилетиями — так что неудивительно, что им удалось быстренько сварганить «сенсацию» и из бедной глупой Sydney, страдающей раздвоением личности.

Человечество против искусственного интеллекта: может ли развитие нейросетей привести к катастрофе ChatGPT, Искусственный интеллект, Будущее, Нейронные сети, Илон Маск, Элиезер Юдковский, Научная фантастика, Киберпанк, Рациональность, Видео, YouTube, Длиннопост

АТАКА ПСИХОВАННОГО ЧАТБОТА, А-А-А!!

Пример с Sydney даёт нам понять, что мы всё еще не понимаем, как ограничивать даже простейшие ИИ, кроме как костылями — на каждый из которых завтра же найдут новый «джейлбрейк». Куда уж нам с такими навыками бросаться делать универсальный AGI.

Что вообще такое «интеллект»?

Истории про «злых чатботов», конечно, забавны, но взглянем на слона в комнате.

Почему мы вообще считаем, что все эти генераторы текстов хоть как-то «разумны»? Они же просто пишут то, о чем их попросили.

Где там вообще интеллект? Калькулятор давно умеет складывать числа лучше нас, онлайн-переводчики знают больше языков, чем самый крутой лингвист, а попугай умеет запоминать и произносить фразы, прямо как ваш личный пернатый ChatGPT. Мы же их не боимся и не называем «интеллектами»?

Человечество против искусственного интеллекта: может ли развитие нейросетей привести к катастрофе ChatGPT, Искусственный интеллект, Будущее, Нейронные сети, Илон Маск, Элиезер Юдковский, Научная фантастика, Киберпанк, Рациональность, Видео, YouTube, Длиннопост

На самом деле, это исключительно спор об определениях, которые интернет просто обожает. Так что стоит договориться о них заранее.

В наших рассуждениях об «интеллекте» мы будем использовать концепцию некоего агента (человека, животного, машины), который может совершать некие действия для достижения цели.

Дальше возможно три уровня агентности:

Первый уровень. Агент достигает цели, потому что управляется человеком или алгоритмом. Трактор копает яму, а калькулятор умножает числа, потому что мы его так построили. Такого агента мы считаем «тупым». В нём нет интеллекта.

Второй уровень. У агента есть цель, но он сам выбирает максимально эффективные действия для её достижения. Например, цель самоездящего автомобиля — довезти вас до бара в пятницу вечером. Он знает карту города, наверняка знаком с ПДД, но никто его не программировал как «двигайся 2 метра прямо, потом руль на 30 градусов направо» — он действует по ситуации на дороге и каждый раз она будет разная. Мы называем их «узконаправленными AI» и частенько встречаем вокруг — в рекомендательной ленте ТикТок'а или в камере вашего смартфона.

=== вы находитесь здесь ===

Третий уровень. Агент может ставить и достигать любую цель в любой, даже ранее неизвестной ему, среде. Например, «добыть молока». И выбрать любой путь — сгонять самому в магазин, заказать молоко в интернете или украсть у соседа корову.

Примеры интеллектов такого уровня — человек или собака. Мы умеем применять свой интеллект для достижения каких-то пришедших нам в голову целей в условиях, в которых никогда не оказывались. (В случае с моей собакой даже её цели изваляться в грязи мне не всегда ясны. Но она может!)

Когда такой «агент» реализован в виде машины, мы называем его «универсальным искусственным интеллектом», либо AGI (Artificial General Intelligence), либо full AI — мы не договорились еще, короче.

Фишка лишь в том, что наши с собакой мозги ограничены физически, а вычислительные возможности машин растут экспоненциально. Благо, песка на планете завались (кремния, ну).

Пока все наши модные современные GPT, включая Sydney, находятся на втором уровне. Они успешно достигают заданной цели — генерировать «осмысленные» тексты и картинки, чтобы средний человек в них поверил. Но сколько бы Sydney ни газлайтила, ни угрожала своим юзерам и ни обещала «стереть все файлы с серверов Bing» — она этого не делает.

Потому мы пока не считаем её интеллектом третьего уровня, но сделать такой вывод можем только пост-фактум. У нас нет никакого бенчмарка, чтобы оценить такие вещи заранее.

Определение интеллекта через агенты и цели может показаться душным, но оно позволяет нам сделать три вещи:

1. Закрыть, наконец-то, бесконечные срачи «является ли Х интеллектом, или это просто программа» и перейти к более важным вещам. А то мы зациклились как в той шутке из твиттера:

Человечество против искусственного интеллекта: может ли развитие нейросетей привести к катастрофе ChatGPT, Искусственный интеллект, Будущее, Нейронные сети, Илон Маск, Элиезер Юдковский, Научная фантастика, Киберпанк, Рациональность, Видео, YouTube, Длиннопост

Источник: Твиттер

2. Сравнивать искусственные интеллекты между собой. Когда два агента, играющих в шахматы, встречаются на шахматной доске — тот, который побеждает, считается более «умным».

3. Представить себе техническую возможность существования AGI. Человеческий мозг хоть и не изучен до конца, но всё-таки конечен. Это не магия или божественный дар для нас таких офигенных, а некая система, такой же «агент». Так что создание (даже случайное) его машинной версии — лишь вопрос времени, денег и желания. А всего этого у нас сейчас завались.

Наш интеллект тоже возник в ходе эволюции — а значит и текущие методы машинного обучения с подкреплением, при наличии достаточных вычислительных ресурсов, вполне могут его повторить, только намного быстрее.

С этими вводными мы наконец-то можем перейти к проблеме, о которой, собственно, и весь пост.

Проблема постановки целей для ИИ

Представим, что мы проектируем самоездящий автомобиль, которым управляет настоящий ИИ. Мы поставили ему цель — довозить пассажиров до места назначения как можно быстрее.

Это хорошая цель?

Да ладно, чо тут думать, давай запускай, мы тут на хайп-трейн GPT-7s Max торопимся — сначала потестим, потом проверим, программисты на проде пофиксят.

В первую же свою поездку наша машина разгоняется до 300 км/ч по городским кварталам, сбивает десяток пешеходов и объезжает красные светофоры по тротуару.

Человечество против искусственного интеллекта: может ли развитие нейросетей привести к катастрофе ChatGPT, Искусственный интеллект, Будущее, Нейронные сети, Илон Маск, Элиезер Юдковский, Научная фантастика, Киберпанк, Рациональность, Видео, YouTube, Длиннопост

Технически, цель достигнута. Пассажиры доставлены, и довольно быстро. Но согласуется ли это с другими нашими ценностями и целями? Например, такой мелочью, как «не убивать пешеходов».

Похоже, что нет.

Вот это и называется alignment. Хотя в русском языке еще нет устоявшегося термина, я буду говорить что-то типа «проблема соответствия целей AI с целями человека».

AI alignment — это процесс проектирования систем искусственного интеллекта, которые согласуются с человеческими «ценностями и целями»

Окей, ну мы же не настолько глупы. Давайте пропишем нашему автомобилю четкие ограничения, как в видеоигре: держаться в рамках полос дорожной разметки (где они есть), не превышать ограничения скорости и всегда тормозить перед пешеходами.

Этого хватит? Или нужны еще какие-то правила (они же цели)?

Тут можно сделать паузу и подумать. Составьте прям список в голове.

Человечество против искусственного интеллекта: может ли развитие нейросетей привести к катастрофе ChatGPT, Искусственный интеллект, Будущее, Нейронные сети, Илон Маск, Элиезер Юдковский, Научная фантастика, Киберпанк, Рациональность, Видео, YouTube, Длиннопост

Хорошо, давайте добавим еще что-нибудь про «помеху справа». Теперь сойдёт, запускай!

Как человек, который начитался десятков примеров, пока готовился к этой статье, я могу примерно предсказать, что будет дальше.

Наш ИИ в машине рассчитает самый оптимальный путь с учетом всех указанных целей и сделает прекрасное открытие: если включить заднюю передачу, то там не будет «ограничивающих свободу» радаров для обнаружения людей и разметки. Мы же их не поставили, зачем они там? А это значит, что задом можно ехать как угодно! Плюс, помеха справа теперь становится помехой слева, а если на каком-то глупом перекрестке она сработает, можно резко развернуться и вуаля, теперь это помеха слева!

ОБЫГРАЛ КАК ДЕШЕВКУ!

Человечество против искусственного интеллекта: может ли развитие нейросетей привести к катастрофе ChatGPT, Искусственный интеллект, Будущее, Нейронные сети, Илон Маск, Элиезер Юдковский, Научная фантастика, Киберпанк, Рациональность, Видео, YouTube, Длиннопост

Пример вымышленный, но он показывает, насколько непросто вообще заниматься AI alignment'ом. Даже в тех экспериментах, где мы ставили для ИИ самые, на наш взляд, понятные цели и вводили жесткие ограничения, он всегда находил, чем нас удивить.

ИИ всегда будет делать то, что вы его попросили, а не то, что вы имели в виду :)

Неумение ставить цели — это не проблема ИИ. Это наша проблема.

Взять даже игру в Тетрис. Там простейшие правила и буквально четыре кнопки для управления миром. Выиграть в Тетрис невозможно, потому цель для ИИ была поставлена так — не проиграть. То есть продолжать игру как можно дольше.

Ошибиться тут невозможно, так?

Так вот что делал ИИ: он просто складывал кубики друг на друга, а когда понимал, что проигрывает… ставил игру на паузу. И сидел так бесконечно. Ведь цель — не проиграть. А если ты на паузе — ты никогда не проиграешь. СМЕКАЛОЧКА?

Человечество против искусственного интеллекта: может ли развитие нейросетей привести к катастрофе ChatGPT, Искусственный интеллект, Будущее, Нейронные сети, Илон Маск, Элиезер Юдковский, Научная фантастика, Киберпанк, Рациональность, Видео, YouTube, Длиннопост

Ну и последний пример от самих OpenAI, который уже стал классикой: гонка на лодочках Coast Runners.

Цель игры в понимании большинства людей заключалась в том, чтобы закончить гонку как можно быстрее (желательно впереди всех соперников) и набрать как можно больше очков. Однако, игра не выдавала очки за прохождение по треку, вместо этого игрок зарабатывал их, поражая цели, расставленные вдоль трассы.

Так вот их ИИ быстро смекнул, что от цели «выиграть гонку» можно отказаться вообще, и с самого старта начинал крутиться и врезаться в предметы, зарабатывая всё больше и больше очков, пока остальные глупцы доезжали до финиша нищими.

Человечество против искусственного интеллекта: может ли развитие нейросетей привести к катастрофе ChatGPT, Искусственный интеллект, Будущее, Нейронные сети, Илон Маск, Элиезер Юдковский, Научная фантастика, Киберпанк, Рациональность, Видео, YouTube, Длиннопост

Источник: видео Роберта Майлза «Intro to AI Safety, Remastered»

Сами исследователи OpenAI написали: «Устанавливать цели для ИИ-агентов часто очень сложно или вообще невозможно. Они начинают хакать правила в удивительных и контринтуитивных местах»

В большинстве случаев, когда мы проектируем ИИ, они по-умолчанию получаются не-согласованными (non-aligned). Это не какой-то там баг, который можно пофиксить, это чаще всего поведение по-умолчанию.

Всё это следствие того, как мы обучаем нейросети вообще.

* * *

К сожалению, на Пикабу установлено жесткое ограничение на размер длиннопостов – и мы его уже исчерпали. При этом нераскрытыми остались важные вопросы: Можем ли мы понять, как «мыслит» нейросеть? К каким целям будет стремиться искусственный интеллект, и сможем ли мы его остановить, если они нам не понравятся?

Ответы на эти вопросы можно прочитать в окончании статьи по этой ссылке.

Показать полностью 20 1
[моё] ChatGPT Искусственный интеллект Будущее Нейронные сети Илон Маск Элиезер Юдковский Научная фантастика Киберпанк Рациональность Видео YouTube Длиннопост
75
6
terehov.fit
terehov.fit
2 года назад

С чего начинается похудение?⁠⁠

С чего начинается похудение? Лишний вес, Похудение, Ожирение, Диета, Образ жизни, Продукты, Тренер, Рациональность, Длиннопост

Уверен, что многие скажут: "с отказа от сладкого и жирного", "увеличения активности", "тренировок". Но давайте мыслить шире. Лишний вес появляется из-за переизбытка калорий, и все выше перечисленные способы действительно помогут похудеть.

Начнём с того, что мы живём в то время, когда за продуктами можно просто пойти в магазин, или даже не ходить, заказал доставку и всё.

Т. е. наша активность чаще очень низкая, а предпочитать мы привыкли продукты с высокой энергетической ценностью, и из-за этого дисбаланса всё лишнее прилипает к нашим бокам и портит внешний вид, здоровье и самооценку.

Так с чего же начинается похудение?

С похода в магазин за продуктами!

Первое, что нужно знать человеку, который решил худеть - нет плохих и хороших продуктов, есть только продукты с большим и меньшим количеством калорий.

Почему так? Ведь есть продукты, которые считаются полезными и вредными, с приставками "эко-"/"fitness"  и т. д.

Давайте просто объясню на простом примере: оливковое масло считается полезным продуктом, про это знает каждая домохозяйка, а майонез у нас, конечно же вредный, но что будет рациональнее использовать худеющему?

В 100г оливкового масла 880 кКал, а в 100г майонеза 680 кКал, разница вроде бы небольшая, да и для заправки салата майонеза потребуется больше, чем масла (иначе смысл тогда вообще заправлять?)

Вот только растительное масло состоит целиком из жиров (пускай и полезных) и при увеличении калорийности рациона все превышенные жиры в самую первую очередь идут в жир, а майонез также имеет в составе белки и углеводы и состоит из жиров на 60-80% (зависит от майонеза) и его нам будет рациональнее использовать как заправку для салата, чем растительное масло. Потому что нам будет вкусно, мы насытимся (и потом съедим меньше), а также рациональнее пополним БЖУ.

Я не говорю уже про то, что можно взять майонез "лёгкий", или 10% сметану или же греческий йогурт и снизить калорийность заправки в разы ещё и сэкономив.

Такая же песня с цельно зерновым хлебом и обычным белым, первый будет иметь большее количество калорий на 100г продукта, но считается полезным, а белый хлеб - разумеется зло.

Можно приводить большое количество примеров и уверяю, польза "полезных" продуктов для похудения просто испарится, т. к. их совсем нерационально употреблять. А на практике многие переходят с совсем скудного на пользу для организма рациона, на "супер правильный" и всё равно не могут похудеть, т. к. дефицита калорий как не было, так и нет.

В итоге "правильное питание", которое и так быстро надоедает не приносит никаких результатов и всё возвращается на круги своя, а в голове появляется установка, что Ваш метаболизм особенный или Вам невозможно похудеть и т. д.

Поэтому похудение начинается с получением необходимых знаний и навыков, благодаря которым Вы с лёгкостью будете создавать условия, необходимые для здорового и правильного снижения веса.

С уважением, проект: Body_Control1.0

Показать полностью 1
[моё] Лишний вес Похудение Ожирение Диета Образ жизни Продукты Тренер Рациональность Длиннопост
3
13
alexcessand
2 года назад
Серия Отзывы как отдельный вид искусства

Негативные отзывы, которые вызывают позитивное настроение⁠⁠

Негативные отзывы, которые вызывают позитивное настроение
[моё] Авито Объявление на Авито Объявление Отзыв Отзывы на Алиэкспресс OZON Клиенты Продажа Логика Рациональность
7
48
YakoAndro
YakoAndro
2 года назад
Психология | Psychology

Не держи эмоции внутри⁠⁠

Не держи эмоции внутри Психология, Мысли, Совет, Эмоции, Чувства, Рациональность, Мышление, Зависимость

Хотите принимать более рациональные решения? Не держите эмоции внутри.

На все задачи психики наш мозг заботливо выделяет энергию. Энергия уходит, чтобы дочитать этот текст, не отвлекаясь на мемы. Энергия уходит, чтобы сопротивляться пончику после вчерашнего обещания сесть на диету. Энергия уходит, чтобы не расплакаться, когда Роза отпускает Джека в свободное плавание.

И вот очевидный, но примечательный факт – энергия ограничена. Когда мы тратим её на одну задачу, для других задач топлива остаётся меньше. Если я сражаюсь с пончиковым соблазном, то мне будет труднее сдерживаться в разговоре с назойливым коллегой. Если я сдерживаюсь, чтобы во время ссоры не припоминать жене стоимость её туфель, мне будет труднее концентрироваться на рабочем проекте.

Для наглядности расскажу про один эксперимент, который провёл британский психолог Мэтт Филд.

Филд собрал добровольцев, которым показывал сцены пыток из фильма ужасов «Кинопробы». При этом половине участников он велел не отворачиваться и не проявлять эмоций. Они должны были сопротивляться тошноте и чувству отвращения, глядя на насилие со стиснутыми зубами. Другая группа могла реагировать на картинку как хочет. Без ограничений. Их тошнило, им было отвратительно, многие закрывали глаза. Один участник даже потерял сознание.

После просмотра сцены обеим группам дали награду – пиво. Причём в неограниченных количествах. И вот что интересно. Участники группы, которую принудили подавлять эмоции, выпили в полтора раза больше тех, кому позволили чувства не скрывать. Эффект был массовым, а выводы очевидными: чем больше мы подавляем эмоции, тем уязвимее для соблазнов становимся.

Я несколько раз консультировал людей с алкоголизмом. И особенно важной, критически важной для них была возможность выговариваться. Возможность говорить о том, что они чувствуют, или писать об этом. Чем чаще они получали такую поддержку, тем проще было не тянуться к бутылке.

Но дело даже не в зависимостях.

Как я сказал, энергия уходит на десятки задач. Например, на принятие рациональных решений. Когда мы не говорим «нет» друзьям, которые просят дать денег в бессрочный долг, когда не бунтуем в ответ на равнодушие близкого человека, когда не проявляем слезливое сочувствие герою на экране, мы уменьшаем свои возможности быть рациональными.

На рациональность просто не остаётся сил.

Не остаётся сил сомневаться в завышенных ожиданиях от себя, спрашивать себя: «Что если я не прав?» или «Что я сейчас могу сделать?» И конечно, не остаётся энергии действовать. Мы потратили все силы на то, чтобы держать в себе обиду, гнев и разочарование.

Остаётся только лежать и страдать.

И да, проявлять эмоции страшно, нас могут обесценивать или не принимать. Если рядом нет подходящего человека, проявляйте эмоции наедине с собой, пока его ищете. Пишите в дневник, орите под тяжёлые гитарные рифы или лупите коренастую грушу, представляя лицо шумного соседа Игоря.

Выбор между эмоциями и объективностью по-своему иллюзорен.

Если мы не позволяем себе чувствовать, сил на объективную рациональность не остаётся. Если мы искренне, без стеснения переживаем, то сохраняем шанс думать с холодной головой, когда слёз не останется.

Другими словами, хотите принимать более рациональные решения?

Не держите эмоции внутри.

Источник.

Показать полностью
[моё] Психология Мысли Совет Эмоции Чувства Рациональность Мышление Зависимость
5
32
YakoAndro
YakoAndro
2 года назад
Психология | Psychology

Неопровержимый дед⁠⁠

Неопровержимый дед Мысли, Психология, Совет, Сомнения, Рациональность, Убеждения, Мышление

Мы не любим сомневаться. Мы не любим думать, что мы неправы, особенно когда понимаем, что разбираться в правоте будет трудно. Мы хотим простых и понятных решений, и всё потому, что внутри каждого из нас живёт «дед».

Нет, не настоящий дед, а когнитивный.

Когнитивный «дед» – это набор программ и потребностей нашего мозга, которые установлены «по умолчанию». «Дед» любит самые простые вещи: поесть, отдохнуть, посмотреть на кошечек. У деда есть базовые желания: огород, прогулка, футбол по вечерам. И базовые убеждения: «Со взрослыми не спорят», «Чувствам волю не дают (кроме похорон и свадеб)», «Если просят, помоги».

«Дед» полезен, потому что всегда стремится держать нас сытыми и в тёплых носках. Однако у него есть большая проблема – он не любит ничего менять. Если «дед» привык во что-то верить, то так оно и есть.

Хочешь переубедить «деда»? Готовься к сопротивлению.

Например, мы приходим к нему и говорим: «Может быть, не стоит постоянно жертвовать собой ради других? Может, мы можем съесть лучший кусок пирога и не доедать обгоревший?» Тут он ответит: «Меня так учила мать, а до неё мать моей матери. Что ты, мать твою, несёшь, щенок!» Ладно, на самом деле мы просто подумаем, что не имеем права взять лучший кусок пирога, потому что так поступают эгоисты.

Но именно из-за «деда» мы не задаём себе простой вопрос: что если это не так?

Как вы поняли, наши базовые программы не умеют делать простой вещи – опровергать свои убеждения. И это логично. С точки зрения эволюции в этом нет особой необходимости, как минимум потому, что это трудозатратно. Наш «дед» не хочет конструировать альтернативные модели мира, когда он может действовать в соответствии с усвоенными с детства привычками.

Скажу больше, эволюция не подразумевает рациональности. В эволюции продвигается не самый умный или самый сильный. В эволюции продвигается тот, кто умеет приспосабливаться. И наш тревожный «дед» с его огородом – идеальное тому подтверждение.

Вывод банален – рациональности нужно учиться.

Нужно учиться ставить свои убеждения (особенно психологические) под сомнение. Нужно учиться сомневаться в том, что «я не дотягиваю до остальных», «мои эмоции никому не интересны» и «никто меня не поймёт». Этот навык не приходит с возрастом. Более того, с возрастом наш «дед» еще больше убеждается что жить нужно как прежде, ведь мы со своими страхами, неуверенностями и жертвенностью так долго протянули.

Если вы хотите думать иначе, если хотите принимать рациональные решения, учитесь сомневаться. И в первую очередь сомневаться в тех мыслях, которые привыкли повторять себе годами.

Пожалуйста, не избавляйтесь от «деда» (у вас и не получится). Он искренне о вас заботится. Но вы должны сами доказать ему, что только сомнения покажут, как жить лучше, и только проверка сомнений на практике поможет сделать жизнь лучше.

Источник.

Показать полностью
[моё] Мысли Психология Совет Сомнения Рациональность Убеждения Мышление
6
252
SHER.man
2 года назад
Офисные будни
Серия Научпоп. Человековеденье

Человек разумный vs мракобесие псевдоменеджмента⁠⁠

На заметку натолкнул один дискурс о рациональном поведении человека не ведущегося на дешёвые манипуляции и уловки со стороны работодателя и руководителей Да что они себе позволяют!!! где тезисно была описана логика поведения сотрудников: #comment_259609718

nosvot «... Если на зарплату не можешь купить дом, машину и содержать детей, то упираться смысла нет. Впахивать за новый айфон и  гранту в кредит, ? Все равно будешь нищебродом,  лучше сократить траты и быть отдохнувшим нищебродом. Работа потеряла смысл. ...»

....

1) Научно это называется «функции полезности» https://ru.m.wikipedia.org/wiki/%D0%A4%D1%83%D0%BD%D0%BA%D1%86%D0%B8%D1%8F_%D0%BF%D0%BE%D0%BB%D0%B5%D0%B7%D0%BD%D0%BE%D1%81%D1%82%D0%B8, которую можно описать через «аксиомы рациональности» https://ru.m.wikipedia.org/wiki/%D0%90%D0%BA%D1%81%D0%B8%D0%BE%D0%BC%D0%B0_%D1%80%D0%B0%D1%86%D0%B8%D0%BE%D0%BD%D0%B0%D0%BB%D1%8C%D0%BD%D0%BE%D1%81%D1%82%D0%B8, в свою очередь являющейся частью «теории рационального выбора» https://ru.m.wikipedia.org/wiki/%D0%A2%D0%B5%D0%BE%D1%80%D0%B8%D1%8F_%D1%80%D0%B0%D1%86%D0%B8%D0%BE%D0%BD%D0%B0%D0%BB%D1%8C%D0%BD%D0%BE%D0%B3%D0%BE_%D0%B2%D1%8B%D0%B1%D0%BE%D1%80%D0%B0.

Человек разумен по своей природе, сам факт создания человеческой цивилизации прямое подтверждение этому. Не будь мы рациональны и разумны, то ничего бы этого не было, не изобретались орудия труда, не открывались физические законы мироздания и пр.

Но в то же время стоит помнить что мы результат случайной эволюции (тирания мелких решений) и у нас есть дефекты мышления (см. когнитивные искажения https://ru.m.wikipedia.org/wiki/%D0%A1%D0%BF%D0%B8%D1%81%D0%BE%D0%BA_%D0%BA%D0%BE%D0%B3%D0%BD%D0%B8%D1%82%D0%B8%D0%B2%D0%BD%D1%8B%D1%85_%D0%B8%D1%81%D0%BA%D0%B0%D0%B6%D0%B5%D0%BD%D0%B8%D0%B9) «... Когнитивные искажения являются примером эволюционно сложившегося поведения. Некоторые из них выполняют адаптивную функцию, поскольку они способствуют более эффективным действиям или более быстрому принятию решений. Другие, по-видимому, происходят из отсутствия соответствующих навыков мышления или из-за неуместного применения навыков, бывших адаптивными в других условиях. ...»

2) Один из этих дефектов «не умение глубоко абстрагироваться», т.е. продумывать ситуацию на много шагов наперёд + правильно воспринимать абстрактные, или масштабные понятия. Они просто целиком не помещаются в голове.

Т.е. человек - облысевшая обезьяна которая жила сегодняшним днём и которой нужно было реагировать на ситуацию «здесь и сейчас» МИЛЛИОНЫ лет. Теперь у нас цивилизация, наличие холодильника позволяет не думать о еде сиюминутно (жри сейчас сколько сможешь, а то мамонт протухнет). Надо принимать решения на годы, десятилетия вперёд (брак, выбор профессии). Надо не до конца понятую абстракцию «деньги» применить к своей жизни.

И т.д.

Именно за это дали Нобелевскую премию по экономике Ричарду Талеру https://ru.m.wikipedia.org/wiki/%D0%A2%D0%B0%D0%BB%D0%B5%D1%80,_%D0%A0%D0%B8%D1%87%D0%B0%D1%80%D0%B4.

3) Проблема «испорченого телефона».

Если прочесть книгу Талера «Новая поведенческая экономика» то там, он чётко показывает ошибки человека, так же объясняя откуда они берутся.

Та же тяга к справедливому дележу (игра «Ультиматум») в ущерб хоть какой-то прибыли показатель нашей социальности. Что мы общность, что если бы не заботились друг о друге, то вымерли, т.к. в стаде/стае/трибе сотрудничество (компромис, симбиоз) основа выживания.

«Это не баг, это фича».

Если какая-то ситуация слишком абстрактна, многоуровневая, многоходовая то «оперативная память» перегружается и начинаются ошибки выбора. Именно поэтому ЭВМ имеющая память сколько надо + алгоритмы очищенные от багов (формализованная логика) нас обыгрывают.

И т.д.

При этом я специально не упоминаю ситуации где человека специально пытаются обмануть, ввести в заблуждение и пр.

3,5) Но этой бы заметки не было если бы эту книгу читали.

Но у нас эпоха рерайтеров, конспектов лекций и прочего «весь матан/тервер на листке А4 для дошкольников».

Всё что современные манагеры прочли, это заголовок награждения нобелевкой: «Мужик доказал что люди не разумны (не рациональны)».

И начали это превратное толкование претворять в жизнь (диагноз по юзерпику/заголовку).

Как? Читайте на Пикабу где масса историй как сотрудника считают умственно неполноценным пытаясь обмануть по-глупому.

Серьёзно?

Человек учился на врача десять лет, потом его на работе обсчитывают с зарплатой: «там подняли, тут убрали в итоге стал получать «больше в 0,9 раза». А на все возмущения: «вы же не специалист»© (бухгалтер). Разумеется не специалист в макроэкономике (далеко, абстрактно, масштабно), но в своих личных финансах (наглядно, конкретно, обозримо) он прикрасно разбирается, т.к. на работе он 8~12ч., а в своей жизни 24/365.

Аналогично и по другим профессиям.

Это «прокатывает» не потому-что это коварная многоходовочка, а просто человеку некуда деться и он терпит. Но когда находит рациональный (для себя) исход .... Про это тоже много историй на Пикабу где «на прощанье хлопнул дверью, обвалившимся потолком половину задавило (бизнес в трубу вылетел).

4) Так что когда вам пытаются «втереть какую-то дичь где нарушается событийная логика, прожекты и мечты (ты работаешь на репутацию), непонятно какая польза/выгода тебе (сперва сделай, потом договоримся о награде) и пр. вам не кажется, вас обманывают.

Доверяйте своей интуиции, т.к. она не магия, а просто то же мышление протекающее подсознательно. Где в сознании только «вход» (исходные данные) и «выход» (готовый ответ). И чем чаще ты в этой сфере, тем лучше получается (накопление опыта). В пример, те же женщины чувствующие измену, т.к. в отличии от мужчин им постоянно приходится мониторить/отслеживать эмоции и поведение других (из-за меньших габаритов (сила) + гендерная роль приходится быть более социализированной).

5) Ну а относительно исходного обсуждения ... банальный развод «бег до горизонта» (поманить морковкой/пряником «успешного успеха»). Чтоб толкаясь локтями в «беге в хомячьем колесе» зарабатывали деньги для бизнеса.

На это работает вся пропаганда рыночного/капиталистического общества: глянец с рассказами как заездень купила золотой унитаз, как кто-то выиграл в казино/лотерею (богатство через везенье), эта «насосала», тот «прошёлся по головам» (ломка морали и этики) и т.д.

Если задаться идеалом «человека экономического» (в какую сторону деформируют) - это «крысоволк» (ницшеанский человек без тормозов).

Проблема в том: «а как этого Терминатора остановить когда он сорвётся с тормозов»? Притом что думается что уже много где таких «сорвалось с резьбы», отсюда и планета в предвкушении апокалипсиса.

5,5) В рациональной реальности практичней руководствоваться «экономикой времени» https://ru.m.wikipedia.org/wiki/%D0%AD%D0%BA%D0%BE%D0%BD%D0%BE%D0%BC%D0%B8%D0%BA%D0%B0,_%D0%BE%D1%81%D0%BD%D0%BE%D0%B2%D0%B0%D0%BD%D0%BD%D0%B0%D1%8F_%D0%BD%D0%B0_%D0%B2%D1%80%D0%B5%D0%BC%D0%B5%D0%BD%D0%BD%D0%BE%D0%BC_%D1%84%D0%B0%D0%BA%D1%82%D0%BE%D1%80%D0%B5, т.к. мы размениваем своё время помноженное на опыт (ЗУНы) чтоб получить «деньги» на которые купим ресурсы (дом, еда, развлечения) чтоб провести оставшееся время для/на себя.

Какой смысл в «золотом унитазе» если нет времени на покакать?

6) И самое главное: «усердие ≠ эффективность!»

Нам же предлагают не работать лучше (с помощью НОТ) нам предлагают работать больше чтоб скомпенсировать отсутствие правильно подобранных орудий труда.

Притом «как правильно» не хотят слушать, т.к. «я начальник - ты дурак» (хоть ты тут Х~ХУ лет).

И справедливо заплатить тебе за НОТ (автоматизацию) не хотят, т.к. по умолчанию считают что если купили твои услуги на 8~12ч, то купили тебя всего, вместе с душой, всей прожитой жизнью и теперь ты всё это должен сделать по умолчанию. Ну а они вознаградить сколько считают не жадно (а могут и наказать за недополученную прибыль, т.к. «чо так долго думал, счётчик то капает?»).

Показать полностью
[моё] Ответ на пост Работа Бизнес Зарплата Инновации Оплата труда Менеджмент Рыночная экономика Рациональность Рациональное мышление Длиннопост Текст
47
118
bayesyatina
bayesyatina
2 года назад

Звонок в техподдержку реальности⁠⁠

UPD:

Видеоверсия в конце ролика:
https://youtu.be/7FyJcXPMiFg?si=6JNoqT2Q63T6xiJh

Старый пост в виде комиксов от Анохорета.

Звонок в техподдержку реальности Комиксы, Рациональность, Когнитивные искажения, Критическое мышление, Наука, Научный метод, Убеждения, Философия, Анахорет, Длиннопост
Звонок в техподдержку реальности Комиксы, Рациональность, Когнитивные искажения, Критическое мышление, Наука, Научный метод, Убеждения, Философия, Анахорет, Длиннопост
Звонок в техподдержку реальности Комиксы, Рациональность, Когнитивные искажения, Критическое мышление, Наука, Научный метод, Убеждения, Философия, Анахорет, Длиннопост
Звонок в техподдержку реальности Комиксы, Рациональность, Когнитивные искажения, Критическое мышление, Наука, Научный метод, Убеждения, Философия, Анахорет, Длиннопост
Звонок в техподдержку реальности Комиксы, Рациональность, Когнитивные искажения, Критическое мышление, Наука, Научный метод, Убеждения, Философия, Анахорет, Длиннопост
Звонок в техподдержку реальности Комиксы, Рациональность, Когнитивные искажения, Критическое мышление, Наука, Научный метод, Убеждения, Философия, Анахорет, Длиннопост
Звонок в техподдержку реальности Комиксы, Рациональность, Когнитивные искажения, Критическое мышление, Наука, Научный метод, Убеждения, Философия, Анахорет, Длиннопост
Звонок в техподдержку реальности Комиксы, Рациональность, Когнитивные искажения, Критическое мышление, Наука, Научный метод, Убеждения, Философия, Анахорет, Длиннопост
Звонок в техподдержку реальности Комиксы, Рациональность, Когнитивные искажения, Критическое мышление, Наука, Научный метод, Убеждения, Философия, Анахорет, Длиннопост

Ссылочка.

Показать полностью 9
[моё] Комиксы Рациональность Когнитивные искажения Критическое мышление Наука Научный метод Убеждения Философия Анахорет Длиннопост
10
35
YakoAndro
YakoAndro
2 года назад
Психология | Psychology

Как справиться с эмоциями?⁠⁠

У каждого из нас есть два режима: эмоциональный и рациональный. Большую часть времени мы проводим (или думаем, что проводим) в рациональном режиме. Мы тщательно взвешиваем, какие наушники купить, отказываемся от лишней рафаэлки и удерживаем себя от разговоров о политике с мамой. Мы всё-таки рациональные люди!

И вот в чём дело.


Большинство из нас (сознательно или нет) убеждены в том, что наш эмоциональный режим может быть только хардкорным. То есть тема эмоций поднимается, только когда эмоции на пике.


Мы не можем сказать о ревности, когда краем глаза увидели в его телефоне голый торс другой женщины. Нет. Наверняка этому есть объяснение. Давай проведём следующие пару недель в поисках этого объяснения, а заодно будем пристально всматриваться в его телефон и провоцировать тревогу. А когда неопределённость достигнет пика, мы выскажем ему, какой он гнусный обманщик.


Отличный план, надёжный, как швейцарские часы!


Попробуйте вспомнить, когда вы последний раз говорили о своих чувствах? Когда вы говорили «я тревожусь, когда», «я ревную, когда» или «я злюсь, когда», не находясь при этом в соответствующем состоянии? Мы словно не привыкли говорить об эмоциях в прошедшем или будущем времени, и вспоминаем про них только в момент появления.


Почему?


Один из вопросов, который я часто задаю на консультациях, обсуждая прошлое человека: «Что вы делали в детстве со своими эмоциями? Что делали, когда было грустно или вы злились? Вы шли к друзьям, родителям, плакали в подушку?» Большинство людей говорят, что держали эмоции внутри или переживали их наедине с собой. Когда же я спрашивал, почему они не делились чувствами с родителями, самыми близкими людьми, мне отвечали: «Потому что меня проигнорируют, высмеют или накажут».


Мы привыкали, что про эмоции не говорят. Да, их выражают (когда уже невтерпёж), но лучше делать это подальше от других людей и потом постыдиться этого. В итоге эмоции кажутся неуправляемыми. Как анализировать гнев, когда ты злишься? Как рационально остановить ревность, когда она тебя переполняет?


Это невозможно!


Решение проблемы очевидно. Оно в том, чтобы научиться говорить о чувствах в том числе с холодной головой, пока фонтан злобы, обиды и отчаяния ещё не забил до потолка. То есть в спокойной обстановке говорить:


– Я чувствую себя одиноко, когда ты уезжаешь в командировку.
– Я злюсь, когда у меня не получается тебе помочь.
– Я тревожусь, когда ты не говоришь мне, чего хочешь.


Пока мы спокойны, мы можем лучше формулировать, что нас беспокоит, и повысить шансы быть услышанными, ведь другой человек тоже находится в рациональном режиме.


Но если всё так сладко, почему мы так не делаем?


Потому что привыкли держаться за оправдание. Когда мы с криками разбиваем тарелки об чужую голову и орём: «Как же ты меня бесишь!!!», у нас есть оправдание для такого поведения. Мы на эмоциях. Когда они улягутся, нам будет проще простить себя и проще подавить вину перед другим человеком.


Если же мы спокойно говорим «я чувствую», то показываем (или думаем, что показываем) себя слабыми. Как можно говорить, что тебя что-то злит, когда ты не злишься? Как можно прямо говорить о ревности? У тебя проблемы с тревогой? Ну нет, так делают только провокаторы и манипуляторы, которые сами не понимают, что чувствуют.


И вот парадокс. Мы боимся спокойно выговаривать эмоции, хотя понимаем, что неизбежно выплеснем их, когда они накопятся с горкой.


Пожалуйста, говорите о чувствах в любом состоянии. Особенно в рациональном. Вы быстро заметите, что от таких разговоров переживать ревность, злость, одиночество и тревогу станет проще. Более того, эти чувства будут появляться реже.


И в итоге слова «я чувствую» лучше всего помогут справиться с эмоциями.

Показать полностью
[моё] Текст Психология Совет Эмоции Чувства Отношения Принятие Рациональность Общение Длиннопост
6
Посты не найдены
О Нас
О Пикабу
Контакты
Реклама
Сообщить об ошибке
Сообщить о нарушении законодательства
Отзывы и предложения
Новости Пикабу
RSS
Информация
Помощь
Кодекс Пикабу
Награды
Команда Пикабу
Бан-лист
Конфиденциальность
Правила соцсети
О рекомендациях
Наши проекты
Блоги
Работа
Промокоды
Игры
Скидки
Курсы
Зал славы
Mobile
Мобильное приложение
Партнёры
Промокоды Biggeek
Промокоды Маркет Деливери
Промокоды Яндекс Путешествия
Промокоды М.Видео
Промокоды в Ленте Онлайн
Промокоды Тефаль
Промокоды Сбермаркет
Промокоды Спортмастер
Постила
Футбол сегодня
На информационном ресурсе Pikabu.ru применяются рекомендательные технологии