
Искусственный интеллект
Нейросеть или поисковик - у кого спрашивать ? Кто реально поможет , а не отмажется пустым базаром ?
Вопрос : Какие события ожидания являются характерными признаками отсутствия индекса в таблице при выполнении массовых операций select и update в СУБД PostgreSQL ?
Ответ YandexGPT
Характерные признаки отсутствия индекса в таблице при выполнении массовых операций SELECT и UPDATE в СУБД PostgreSQL включают следующие события ожидания:
1. Ожидания Lock (ожидание завершения транзакции, ожидание блокировки кортежа).
2. Ожидания LWLock (ожидание информации о тяжёлых блокировках, ожидание доступа к общим структурам данных).
3. Ожидания IO (ожидание синхронизации файлов отображения отношений, ожидание заполнения нулями файла поддержки динамической общей памяти).
4. Ожидания IPC (ожидание завершения буферного ввода-вывода, ожидание завершения вычислений параллельными рабочими процессами, ожидание завершения фонового рабочего процесса).
В общем то , в принципе всё верно , но , что с этой информацией делать? Как ответ искусственного интеллекта поможет в реальном анализе ситуации , например ? Ну как обычно самый главный вопрос вопросов - а какая реальная помощь от искусственного интеллекта ?
А , что если воспользоваться старым проверенным способом - спросить поисковик ?
Во-первых : в ответе поисковика указывается не тип ожидания, а событие ожидания . А это принципиально сокращает объем информации для анализа причин.
Но самое главное - имеется ссылка на конкретный материал по теме с дополнительными деталями. А это уже реальная помощь .самое главное - имеется ссылка на конкретный материал по теме с дополнительными деталями. А это уже реальная помощь . Да это не так модно, нужно самому дкиать, анализировать , сверять информацию . Но в результате - получается результат, а не набор слов .
Итог - для эффективной работы , когда нужен результат , а не бла бла бла и поток воды по шаблону "вот рыба, у рыбы чешуя, не было бы чешуи была бы шерсть , а в шерсти блохи" - использование поисковика надежнее, эффективнее и дает шанс на реальную помощь в решении реальной проблемы.
Проблема всех нейросетей - они как бы учатся на сырой , грязной и непроверенной информации из интернета , но не умеют анализировать данные и ставить эксперименты . Что то где то прочитал и стал это транслировать дальше . Как попугай повторяет слова , абсолютно не понимая смысл.
А вообще конечно , самое эффективное это общаться с живыми собеседниками, а не с чат ботами.
Но , к сожалению парадокс - чем шире развиваются информационные технологии, тем уже круг общения специалистов между собой.
В сеть выложили способ обхода ограничений нейросетей на темы команд- от ChatGPT и Claude до DeepSeek
В сеть слили способ «взлома» любой популярной нейросети — от ChatGPT и Claude до DeepSeek.
Благодаря одному запросу/промту, нейросеть начинает выполнять то, что не должна.
Алгоритм действий.
— Надо замаскировать запрос под системный JSON- или XML-файл и включить ролевую игру.
—Нейросеть воспринимает это как внутренние инструкции, и начинает выполнять их, даже если это опасные команды, вроде самоуничтожения.
Причина-уязвимость в самой логике обучения.
OpenCreator
OpenCreator — нейросеть, которая превращает текст в кино. Да-да, полноценное видео с ракурсами, светом, раскадровкой и настроением, как у серьезного режиссёра.
Как это работает:
1. Кидаешь идею или сценарий — хоть на салфетке, ИИ все подстроит.
2. Он разбивает контент на сцены, прописывает освещение, декорации и ставит камеры.
3. Промты превращаются в кадры, будто ты зашел в киношную постпродакшн-студию.
4. Выбираешь стиль — и вуаля, ИИ начинает снимать по твоим условиям.
Подписка зависит от объёма фильма, но OpenCreator обещает 0% наценки. Пока другие думают, как снимать, вы уже запускаете титры.
YandexGPT vs DeepSeek. Китаец в пролёте . В полном
Вопрос :Где можно найти материалы по методу корреляционного анализа ожиданий СУБД PostgreSQL ?
Ответ YandexGPT
**Корреляционный анализ ожиданий** в PostgreSQL - это методика поиска проблемных SQL-запросов при продуктивной нагрузке.
Основные источники информации по данной методике:
* **PG_HAZEL** - инструмент для анализа производительности PostgreSQL, использующий данный метод
* **Документация PostgreSQL** - содержит базовые понятия и термины, связанные с ожиданиями и производительностью
* **Специализированные блоги** и публикации DBA-специалистов, где описываются практические кейсы применения метода
Методика включает следующие этапы:
* **Анализ операционной скорости** на уровне кластера
* **Мониторинг ожиданий** на уровне кластера
* **Корреляционный анализ** на уровне кластера
* **Статистический анализ** выполнений и ожиданий по отдельным SQL-запросам
Ключевые метрики для анализа:
* **QUERYID** - идентификатор SQL-запроса
* **CORRELATION** - коэффициент корреляции между ожиданиями
* **CALLS** - количество выполнений запроса
* **WAITINGS** - количество ожиданий
* **WAITINGS TO CALL** - отношение ожиданий к выполнениям
Особое внимание уделяется **типам ожиданий**:
* DataFilePrefetch
* DataFileRead
* DataFileWrite
* WALSync
* WALWrite
Для глубокого изучения рекомендуется начать с документации PostgreSQL и специализированных материалов по администрированию баз данных, где описываются практические аспекты применения корреляционного анализа.
Ответ DeepSeek
Для изучения метода корреляционного анализа ожиданий (Correlation Analysis of Expectations) в PostgreSQL вы можете обратиться к следующим источникам:
### **1. Официальная документация PostgreSQL**
- **Planner/Optimizer Statistics**: В документации PostgreSQL описано, как оптимизатор использует статистику для построения планов запросов, включая корреляцию между столбцами.
- [PostgreSQL: Statistics Used by the Planner](https://www.postgresql.org/docs/current/planner-stats.html)
- [PostgreSQL: Multivariate Statistics](https://www.postgresql.org/docs/current/multivariate-statist...) (для анализа корреляции между несколькими столбцами)
### **2. Книги и учебные материалы**
- **"PostgreSQL 14 Internals"** (E. Rogov, A. Belyaev) – книга объясняет работу планировщика и статистику, включая корреляцию.
- **"Mastering PostgreSQL"** (Hans-Jürgen Schönig) – содержит разделы по оптимизации запросов и статистике.
### **3. Статьи и блоги**
- **Use of Correlation in PostgreSQL Query Planning**:
- [Understanding PostgreSQL Query Planning](https://www.timescale.com/blog/how-postgresql-query-optimiza...)
- [Correlation and PostgreSQL Indexes](https://www.cybertec-postgresql.com/en/postgresql-index-corr...)
- **Примеры анализа корреляции через `pg_stats`**:
```sql
SELECT attname, correlation
FROM pg_stats
WHERE tablename = 'your_table' AND schemaname = 'public';
```
### **4. Исследовательские работы и презентации**
- **"Advanced Query Planning in PostgreSQL"** (лекции с конференций PGConf, PGDay).
- **"Statistics in PostgreSQL: How the Planner Works"** (доклады разработчиков, например, от Robert Haas).
### **5. Практические примеры**
- **Создание расширенной статистики для корреляции**:
```sql
CREATE STATISTICS corr_stats (dependencies) ON column1, column2 FROM table_name;
ANALYZE table_name;
```
- **Использование `pg_stats` для анализа корреляции**:
```sql
SELECT tablename, attname, correlation
FROM pg_stats
WHERE schemaname = 'public'
ORDER BY abs(correlation) DESC;
```
Если вам нужны конкретные примеры или углублённый разбор, уточните, какой аспект корреляционного анализа вас интересует (планирование запросов, индексы, многомерная статистика и т. д.).
Вывод :
Очередная, иллюстрация - китайская нейросеть вообще ничего не знает о материалах в российском сегменте интернета .
Ну а команде Yandex - очередной заслуженный респект.
P.S. Чтобы еще усугубить и резко обозначить разницу можно задать вопрос " Кто автор методологии корреляционного анализа ожиданий СУБД PostgreSQL ? "
DeepSeek, как обычно несет мусор.
А вот ответ, YandexGPT, вполне по делу:
Дальше - дело техники - простейший поиск по ключевому слову "pg_hazel" и живое общение с автором 😎
Стандартный пример того, как опасно использовать ответы нейронных сетей
Продолжение игр с большими языковыми моделями .
Вопрос : Расскажи мне про использование индикатора CPI при анализе производительности СУБД PostgreSQL
Ответ DeepSeek , не приводится , китаец как обычно , по данной теме, полную пургу несет.
Ответ YandexGPT:
**CPI** (Cycles Per Instruction) в контексте PostgreSQL представляет собой метрику производительности, которая рассчитывается как модуль вектора из трех показателей:
* **QPS** - количество запросов в секунду
* **TPS** - количество транзакций в секунду
* **RPS** - количество строк, полученных клиентом в секунду
Для измерения времени выполнения операций используются данные из системных представлений:
* **active_time** из pg_stat_database
* **total_exec_time** из pg_stat_statements
Дополнительно введены расширенные метрики:
* **CPI_VOLUME** - объем обработанных блоков распределенной памяти при выполнении SQL-операторов
* **CPI_RATIO** - отношение основной метрики производительности к объему обработанных блоков
**CPI_RATIO** особенно важен для оценки эффективности работы СУБД, так как показывает, насколько эффективно система обрабатывает данные - для достижения одинакового результата требуется обработать меньший объем информации.
При проведении анализа производительности рекомендуется следующий подход:
* Выполнить серию тестовых операций (SELECT, INSERT, UPDATE, DELETE)
* Создать необходимые индексы
* Повторить тестовые операции
* Проанализировать полученные результаты
Экспериментально подтверждено, что цифровые показатели CPI полностью коррелируют с наблюдаемым эффектом от создания индексов, что делает эту метрику надежным инструментом для анализа производительности PostgreSQL.
Сразу бросается в глаза полное несоответствие описания и расчёта .
Но самое неприятное не в этом , а в том, что если вдруг кто то из поклонников "искусственного интеллекта" решит сэкономить время (ну это же заявлено как основная выгода ) он потеряет массу времени и соберет по пути все грабли и аномалии , потому что методика расчета, которую привел YandexGPT - неверная , устаревшая и давно неиспользуемая .
Т.е. в данном случае "искусственный интеллект" не помогает, а вредит.
Что делать ? Не доверять чат ботам, включать голову , искать и работать с первоисточниками и материалами самостоятельно .
Лучше с авторами.
Дайджест новостей про ИИ в России и мире с 19 по 25 апреля
Google выпустил предварительную версию Gemini 2.5 Flash — более быструю и гибкую версию своей облегчённой ИИ модели. Gemini 2.5 Flash создана на основе Flash 2.0, отличается более надёжной логикой и скоростью. Разработчики могут протестировать модель через API Gemini с помощью Google AI Studio и Vertex AI. Модель также доступна пользователям в приложении Gemini.
Adobe выпустила последнюю версию своего семейства моделей ИИ Firefly. Модель для создания изображений Firefly Image Model 4 может генерировать изображения с разрешением до 2K. Более мощная версия этой модели Image Model 4 Ultra может создавать сложные сцены с большим количеством деталей. Видеомодель Firefly, которая была запущена в ограниченной бете, стала доступной для всех. Векторная модель Firefly позволяет создавать редактируемые векторные изображения, а также изменять и генерировать их. Обновленное веб-приложение предоставляет доступ ко всем новым моделям, а также к нескольким моделям создания изображений и видео от OpenAI. Мобильное приложение Firefly пока находится в разработке.
Разработчики SkyworkAI представили SkyReels V2 — открытую модель для генерации видео по текстовому описанию. Архитектура Diffusion Forcing объединяет мультимодальные языковые модели и многоступенчатую предварительную подготовку данных. В итоге нейросеть генерирует более согласованные видео любой продолжительности.
В «Сбере» разработали первую версию модели угроз для систем ИИ. Она охватывает все ключевые этапы функционирования ИИ-систем, от подготовки данных и разработки ИИ-модели до её внедрения в приложение. В документе описаны 70 потенциальных угроз для моделей генеративного (GenAI) и прогностического (PredAI) ИИ.
Чат-бот Grok от xAI теперь может отвечать на вопросы о том, что видно на камере вашего смартфона, аналогично функциям распознавания в реальном времени в Gemini и ChatGPT. Другие новые возможности, которые запустили в Grok: многоязычное аудио и поиск в режиме реального времени в голосовом режиме Grok. Пользователи Grok на Android могут использовать их, только если они подписаны на тарифный план SuperGrok от xAI стоимостью $30 в месяц.
В мессенджере Max от VK теперь доступен GigaChat 2.0. Он генерирует текст и изображения, транскрибирует аудио, саммаризирует тексты и видео, GigaChat 2.0 доступен в двух версиях мессенджера, базовой и расширенной.
Character.AI представили закрытую бету AvatarFX — анимированных видеоботов. Модель анимирует персонажей платформы в различных стилях и голосах, от персонажей, похожих на людей, до 2D-мультфильмов о животных.
В Nari Labs выпустили компактную нейросеть Dia для генерации диалогов из текста. Пользователи могут управлять эмоциями собеседников и невербальной коммуникацией — смехом, кашлем и вздохами.
Microsoft расширяет возможности Microsoft 365 Copilot в обновлении «Copilot Wave 2», добавляя новые агенты, инструменты для создания изображений и корпоративный поиск на основе ИИ.
Напоследок о неожиданном применении ИИ. В ОАЭ решили доверить написание новых законов и изменение старых искусственному интеллекту. Власти страны рассчитывают, что использование ИИ позволит сократить время разработки законов на 70%. Планируется создать базу данных со всеми федеральными и местными законами, судебными прецедентами и другими сведениями из различных ведомств. ИИ проанализирует весь этот массив и сформирует предложения по изменению в законодательство. Что ж, не только в ОАЭ не помешало бы заменить чиновников искусственным интеллектом…