О, наконец годный повод для жаркого интеллектуального спора на пикабу!
Она не знает смысл слов, но умеет находить статистические зависимости и предлагать наиболее вероятный ответ. Чем больше данных, тем лучше модель имитирует «понимание».
Т9 [бла-бла-бла] Вот, собственно, и всё. Никакого осознания, просто огромная база данных + предсказание самых вероятных слов.
Но из-за того, что это работает довольно плавно, создаётся ощущение, будто модель реально думает.
она умеет делать кучу реально крутых штук.
Но при этом важно помнить, что она не осознаёт, о чём говорит.
Автор в своих рассуждениях на этот вот момент довольном много всего сказал, но не упомянул главного: почему он считает, что нейросеть не осознаёт, а человек осознаёт?
Нет, не спешите, задумайтесь над вопросом. Надо помнить, что осознание мы, пока что, можем зарегистрировать только у себя в голове, есть ли такой процесс как осознание у других в голове - это мы доказать никак не можем. Тут надо вспомнить мысленный эксперимент с Китайской Комнатой. Если нечто по ту сторону вашего канала связи неотличимо от человека (которого вы решили почему-то по умолчанию считать разумным и осознающим себя), то как можно не кривя душой отказывать в этом гипотетической машине, которая ведёт себя и общается с вами как человек?
Сейчас генеративные чаты могут уже имитировать память (долгосрочную и краткосрочную), они способны рассуждать (то есть вести "внутренний" диалог, включать "внутреннего" критика, строить за счет этого логические выводы, ставить себе промежуточные цели и решать задачи).
Очевидно, что эта вся машинерия сейчас работает не так, как биологический мозг, но существенна ли эта разница для того, чтобы считать или не считать ИИ осознающим себя - это вопрос, на который мы (Человечество) ещё не умеем однозначно и аргументированно отвечать.
«Представьте, что перед вами четыре стакана, наполненных водой. В каждом стакане находятся предметы. В первом стакане – металлические наручные часы; во втором – канцелярская скрепка; в третьем – металлические ножницы; в четвертом – ластик. При этом уровень воды во всех стаканах одинаковый. Вопрос: в каком стакане воды больше, чем в остальных?»
О! Прикольный пример! Когда люди докапываются до нынешних нейросетей с такими задачами, я всегда вспоминаю каких-нибудь не очень смышлёных детей, или упоротых алкашей, которым лень думать, или... ну не важно. Я к чему. Такого рода задачи не выглядят надёжным индикатором наличия способности к образному мышлению. Есть особи нашего с вами вида, которые не дадут ответа на этот вопрос, но у нас не возникнет мысли отказать им в разумности или предположить, что они не осознают себя.
Одни модели дают правильный ответ при работе с вычислениями, другие начинают писать что-то вроде:
"45321 + 67489 = 100000 (примерно)".
Почему? Потому что LLM не считает, а имитирует процесс сложения, просто вспоминая, какие цифры обычно стоят рядом.
О! Тоже отличный пример, который по сути ничего не меняет. Мы можем представить себе неграмотного человека, который не умеет считать, и будет знать о цифрах примерно столько. чтобы ответить в вот таком же духе? Да такие люди вполне могут неплохо разговаривать, к примеру.
Выходит все наши претензия к "ИИ" касательно качества решения такого рода задач (поставленных, кстати, на естественном языке) может навести на мысли, что наш "ИИ" - это, всё таки, интеллект, и он в каких-то вопросах может превосходить возможности организмов, коим мы не отказываем в признании интеллектуальности (хоть и не великой).
Тут хочется что ещё упомянуть. Вроде как уровень интеллекта ощущается как некий континуум. Может даже не одномерный. Есть более и менее интеллектуальные представители. Наверняка с нейросетями похожая история.
Однако про самосознание (по сравнению с интеллектуальностью) мы вообще мало что можем сказать, ввиду слабой интроспективности нашего мозга. Ввиду отсутствия вменяемых метрик для оценки. Где-то слышал, что в психологии развития детей есть такие переломные моменты, когда маленький человечек начинает отождествлять и отделять себя от окружающих. Там есть эксперимент, вроде теста Салли-Энн. А ещё некоторые животные даже способны проходить, к примеру зеркальный тест.
Всё это способы как-то исследовать рассудочную и сознательную деятельность, однако для Человечества этот вопрос на грани этики и принятия. Мы обучаем горилл и разговариваем с ними на языке жестов, мы наблюдаем сложное поведение дельфинов, но при этом как-то с какой-то неловкостью сравниваем их гипотетическое осознание себя со своим осознанием. Может быть тут та же история с нейросетями? Может быть нам просто трудно избавиться от природного шовинизма и консерватизма? В конце концов кое где только недавно стали считать негров за людей. Ну по историческим меркам недавно.
Обучение языковой модели можно сравнить с учебой в школе, но намного масштабнее. Представьте, что ChatGPT прочитал тысячи книг, статей и других текстов из интернета. Он научился замечать закономерности — например, что слово «машина» часто связано со словами «дорога», «мотор», «колеса».
Когда языковая модель учится, её не просто заставляют читать. Она должна предсказывать, какое слово пойдет следующим. Например, ей могут показать предложение: «Кошка ловит…». И она должна угадать, что там слово «мышь». Если она ошибается, её поправляют. Так, шаг за шагом, она становится умнее.
С позволения оппонента процитирую эту пару абзацев. Вы видите, что во многом способ обретения интеллектуальности у нейросети схож с человеческим? Просто нынешние LLM учатся на текстах, и выраженных в них закономерностях этого мира, а дети учатся сперва на физике этого мира, моторике своего организма... Мудрено ли, что нейросеть, обученная косвенно, путается в "понимании" задачки с количеством воды и скрепками. Она ни разу не топила скрепки в воде! А дети топили, или не скрепки, но что-то другое.
Это всё заставляет сделать вывод, что претензии наши к качеству понимания мира - это скорее к количественному аспекту обучения, а не к качественному. Да и сколько тем нейросетям (с нынешними их возможностями) лет? За это время человеческую особь не восопитать, а какой-нибудь ЧатЖПТ проявляет эрудицию, может рассуждать на свободную тему и написать эссе... А это ещё по сути сырая технология! То ли ещё будет!
Языковые модели кажутся умными, но они не понимают мир так, как понимает его человек. Они не видят, не слышат и не чувствуют — у них нет настоящего опыта. Поэтому, если спросить модель о вкусе лимона, она может рассказать о кислых вещах, но сама никогда не пробовала лимон!
Вот! Вот про эту предвзятость я и говорил! "Кажутся умными". Да, они не видят, не слышат и не чувствуют как обычный человек. В точности как обычный человек. Но от рождения слепой человек никогда ничего не видел, и вы не будете говорить, что он лишь кажется умным разговаривая с вами в чате, или играя вам на скрипке. То же и глухонемые. Они ничего не расскажут о громких звуках, или птичьих трелях, поскольку никогда их не слышали, лишь читали о них! И вот тут мы подошли к важной мысли. Если нейросеть не видела и не слышала то. что слышали и видели обычные люди, а лишь читала про всё это, то можно ли считать нейросеть не такой умной, как люди?
На самом деле это всё не важно. Все эти споры и весь наш тред уже ставит наши LLM и пока ещё юный сырой недоИИ в один ряд с человеком разумным. Даже если мы не готовы принять это, мы это уже обсуждаем. Это не то же самое, что ласково называть любимую машину "ласточкой" и разговаривать с ней отождествляя с живым существом. Нейросеть ответит, и не как попугай в детской игрушке, а... осознано ли? Это открытый вопрос. У меня нет на него ответа. По крайней мере пока. Думаю пока нет.
Вывод
Люди кажутся умными, потому что очень хорошо имитируют мышление. Они могут писать статьи, помогать в работе, даже шутить! Но по сути всё, что они делают — это предсказывают самые вероятные ответы.
И принципиальной разницы тут нет.
Но ключевое отличие от человека – отсутствие истинного понимания. Не мышление, а продвинутая статистика.
А как отличить истинное понимание от неистинного? Логические построения ризонинга о3 от мысленного внутренним диалога человека?
А я пока пойду… попробую объяснить модели, что «И» — это не просто буква, а правильный ответ на простую загадку с буквами.
Забавно, но эта загадка про АиБ придумана очень давно и не для машин, а для человека. Раз уж эта загадка, то очевидно, что не каждый человек на неё находил ответ, не зная о ней заранее. То, что мы ожидаем от машины правильного ответа, смекалки - это уже серьёзный повод поставить под сомнение все утверждения моего уважаемого оппонента об отличиях ИИ от ЕИ.
Вы только подумайте как легко и быстро мы перестали удивляться тому, что машины стали "понимать" чего мы от н их хотим, что такое суть загадка, что у нас диалог и надо отвечать, причем по теме...
В интересное время мы живём.