Горячее
Лучшее
Свежее
Подписки
Сообщества
Блоги
Эксперты
#Круги добра
Войти
Забыли пароль?
или продолжите с
Создать аккаунт
Я хочу получать рассылки с лучшими постами за неделю
или
Восстановление пароля
Восстановление пароля
Получить код в Telegram
Войти с Яндекс ID Войти через VK ID
Создавая аккаунт, я соглашаюсь с правилами Пикабу и даю согласие на обработку персональных данных.
ПромокодыРаботаКурсыРекламаИгрыПополнение Steam
Пикабу Игры +1000 бесплатных онлайн игр Перетаскивайте деревянные блоки и убирайте их в ворота того же цвета! Успокаивающая логическая игра без времени и ограничений.

Wood Blocks Jam

Головоломки, Казуальные, Логическая

Играть

Топ прошлой недели

  • SpongeGod SpongeGod 1 пост
  • Uncleyogurt007 Uncleyogurt007 9 постов
  • ZaTaS ZaTaS 3 поста
Посмотреть весь топ

Лучшие посты недели

Рассылка Пикабу: отправляем самые рейтинговые материалы за 7 дней 🔥

Нажимая кнопку «Подписаться на рассылку», я соглашаюсь с Правилами Пикабу и даю согласие на обработку персональных данных.

Спасибо, что подписались!
Пожалуйста, проверьте почту 😊

Помощь Кодекс Пикабу Команда Пикабу Моб. приложение
Правила соцсети О рекомендациях О компании
Промокоды Биг Гик Промокоды Lamoda Промокоды МВидео Промокоды Яндекс Директ Промокоды Отелло Промокоды Aroma Butik Промокоды Яндекс Путешествия Постила Футбол сегодня
0 просмотренных постов скрыто
21
gwah
gwah
2 дня назад
Хомячу Сервер
Серия HomeLab

HomeLab. Выбор основы⁠⁠

Если бы пол года назад, когда я ставил свою первую операционку на домашний сервер я бы прочитал этот пост - я бы принял иное решение и сейчас мой сервер выглядел по другому. С другой стороны - ничего принципиально нового в посте нет, вся информация давно есть на ютубе, реддите и в чате гпт - нужно было просто спросить. Разные люди по разному воспринимают понятие "домашний сервер" - для кого-то это это коробочка NAS, для кого-то просто виндовый компьютер на антресоли. В рамках этого поста я под домашним сервером буду иметь в ввиду физическую машину с операционной системой линукс. И поговорим о том, какой же дистрибутив можно поставить и в чем отличие.

Очень условно я классифицировал серверные операционные системы исходя из уровня подготовки и целей - и у меня получилось три типа.
- Простые = self-hosting + NAS + лёгкие UI
- Средние = виртуализация + более гибкая настройка
- Продвинутые = оркестрация, облачные сценарии, "мини-дата-центр"

Простые решения (для начинающих / low-entry).
Как следует из названия - это самые простые варианты, они (почти) не требуют знания линукс, имеют удобный веб интерфейс и возможность установки сервисов в несколько кликов. На рынке представлено множество таких решений, самые известные это: YunoHOST, CasaOS, Cosmos Cloud, Umbrel, Tipi, Sandstorm, unraid(!платновое), FreedomBox, cloudron, EmbassyOS

HomeLab. Выбор основы Linux, IT, Виртуализация, Операционная система, Сервер, Длиннопост

Каталог приложений yunohost.

Отличия у них минимальны (например у embassy и FreedomBox чуть больше фокуса на приватность, интерфейс YunoHOST немного устарел - но зато самый большой встроенный магазин приложений), а общее у них одно - минимальный порог входа. Если вы новичок без технического бекграунда - с помощью этих решений вы легко можете выстроить всю инфраструктуру.

HomeLab. Выбор основы Linux, IT, Виртуализация, Операционная система, Сервер, Длиннопост

Интерфейс Космос Клауд. Можно потыкать тут https://cosmos-cloud.io/cosmos-ui/

Некоторые относят к операционным системам этого уровня и OpenMediaVault (OMV) с TrueNAS SCALE (и я купился на это, первая моя операционка как раз именно OMV) - но я с ними не согласен - это скорее операционка именно для NAS - если вы хотите ставить дополнительные сервисы - это возможно, но не интуитивно.

HomeLab. Выбор основы Linux, IT, Виртуализация, Операционная система, Сервер, Длиннопост

Вот зашел в OMV - а он просит обновится. Это он умеет...

В общем для начинающего, или для "поставил, настроил и забыл" - я бы советовал взять в качестве ОС что то из вышеперечисленного.

А если по%баться? или средний уровень (для энтузиастов / medium-entry)
Вторая группа операционных систем несколько сложнее, требует базового понимания Linux, сетей, Docker, но и дают больше контроля. Я бы посоветовал эту группу себе энтузиастам, которым процесс важнее чем результат.
К этой группе я отношу Proxmox VE, XCP-ng, Harvester, NixOS, DietPi (тут я сразу отмечу, что сам тестировал и работал только с Proxmox VE, про остальное только читал. Поэтому буду рассказывать на его примере).
У проксмокса нет готового каталога приложений, которые можно поставить в один клик (хотя есть отличный каталог пользовательских скриптов установки, 300+ проверенных сервисов, которые устанавливаются через одну строчку) - это скорее универсальный хост для виртуализации. Зато поднять виртуальную машину с нужными параметрами, изменять эти параметры прям на ходу или использовать никогда не было так просто. Еще у проксмокса есть интересный формат контейнеров - LXC, я это воспринимаю как нечто среднее между виртуалкой и контейнером. Используется общее ядро, а контейнеры используют изолированное окружения. В результате эти контейнеры потребляют меньше ресурсов, чем виртуалка - но обладают большей степенью изолированности, чем докер контейнеры.

HomeLab. Выбор основы Linux, IT, Виртуализация, Операционная система, Сервер, Длиннопост

UI проксмокса чуть сложнее чем интерфесы ОС первого типа - но все еще существенно проще консоли, на мой взгляд.

В общем если бы я начинал сейчас - вместо OMV я бы поставил себе два Проксмокса.

Или три? Продвинутые решения (для экспертов / high-entry)

Последняя группа - это решения для профессионалов. Я не пробовал ничего из этого (пока?), поэтому коротко опишу как я вижу это со стороны и буду рад если кто то расскажет подробней.

  • VMware ESXi – классика корпоративной виртуализации (сейчас менее актуальна из-за Broadcom).

  • Kubernetes (k3s, MicroK8s, TalosOS) – для масштабирования контейнеров, требует глубоких знаний.

  • OpenShift OKD – корпоративный Kubernetes с дополнительным уровнем абстракции.

  • OpenStack – облачная платформа IaaS (виртуальные машины, сети, сторидж).

  • Nomad (от HashiCorp) – оркестрация контейнеров и VM, альтернатива Kubernetes.

  • Bare-metal Linux (Arch, Debian, Ubuntu, Gentoo) – "чистая" установка и ручная настройка всех сервисов.

  • FreeBSD / NetBSD / OpenBSD – более редкие, но мощные для сетевых и серверных задач.

Кажется что это решения, для маленького дата-центра дома. Явно не для всех - но если вы, например, делаете свой стартап, и хотите хостить его из дома - то это ваш выбор. Чат гпт подсказывает мне, что если я поставлю себе третий сервер - я смогу сделать кластер, который будет автоматически масштабироваться под нагрузку и работать даже в случае выхода из строя одной машины. Но я честно пока в душе не знаю, зачем мне это (*но очень надо)

На сегодня вероятно все, задавайте вопросы если есть, рассказывайте что стоит у вас, отдельно было бы интересно послушать людей с третьей группой операционок.

Показать полностью 4
[моё] Linux IT Виртуализация Операционная система Сервер Длиннопост
8
15
DmitriitheFals
20 дней назад
Серия Кудахтеры: Proxmox GmbH

Переход на Proxmox (Proxmox GmbH, Vienna, Austria) с Hyper-V by Microsoft и VMware by Broadcom. Часть восьмая. Продолжение про хранение⁠⁠

Для лиги лени: общеизвестное и душное.

Часть 1. Общая
Часть 2. Gitlab и Nexus
Часть 3. Ansible и Ansible AWS
Часть 4. Наконец переходим к Proxmox
Часть 5, не запланированная. Обновляем Proxmox с 8.4 до 9.0. Неудачно (и потом удачно)
Часть 6. Возвращаемся к запуску Ansible. Тоже не запланированная статья.
Разница концепций. Часть 7.1 Обновления компонентов и система информирования.
Разница концепций. Часть 7.2 Сети
Разница концепций. Часть 7.3 предисловие к теме «Дисковое пространство».
Разница концепций. Часть 7.4 «Локальное дисковое пространство».

Не успел дописать еще одну часть, как опять вышло обновление:
qemu-server/stable,now 9.0.17 amd64 [installed,upgradable to: 9.0.18]
libxslt1.1/stable-security 1.1.35-1.2+deb13u1 amd64 [upgradable from: 1.1.35-1.2]
libxslt1.1/stable,now 1.1.35-1.2 amd64 [installed,upgradable to: 1.1.35-1.2+deb13u1]

xsltproc/stable-security 1.1.35-1.2+deb13u1 amd64 [upgradable from: 1.1.35-1.2]
xsltproc/stable,now 1.1.35-1.2 amd64 [installed,upgradable to: 1.1.35-1.2+deb13u1]
Сколько можно!
Это мне придется не только смотреть в pveversion, но и смотреть в pveversion -v и даже в kvm --version
Это никуда не годится.

Часть восьмая.
8.1 Продолжение про хранение – расположение дисков VM

Итак, если у вас локальный сервер с одним диском, он как-то размечен при запуске, и на первый взгляд все хорошо. Кроме того факта, что виртуальная машина лежит не как файл, а как том в LVM.
В конфигурации виртуальной машины диск прописан как
scsi0: local-lvm:vm-100-disk-0,iothread=1,size=5G

но это блочный lvs том, который виден по команде lvs , или его можно поискать через
find /dev | grep vm
И получить путь /dev/pve/vm-100-disk-0
или выполнить
lvdisplay

в GUI это тоже выглядит странно

Переход на Proxmox (Proxmox GmbH, Vienna, Austria) с Hyper-V by Microsoft и VMware by Broadcom. Часть восьмая. Продолжение про хранение Опыт, IT, Proxmox, Linux, Виртуализация, Длиннопост

картинка 1 жпг

В управлении хостом \ дисками, я вижу именно диски, но не могу уйти ниже, в структуру данных на дисках.

Переход на Proxmox (Proxmox GmbH, Vienna, Austria) с Hyper-V by Microsoft и VMware by Broadcom. Часть восьмая. Продолжение про хранение Опыт, IT, Proxmox, Linux, Виртуализация, Длиннопост

В самих дисках в списке дисков на хосте, я вижу диск виртуальной машины, но как-то все равно не очень очевидно сделано.

8.2 Продолжение про хранение – добавление дисков к хосту
Добавляю еще один, в моем случае виртуальный, диск и в GUI видим появление /dev/sdb

И к нему ровно две кнопки: Initialize и Wipe. Первая делает Initialize и ничего кроме.

Переход на Proxmox (Proxmox GmbH, Vienna, Austria) с Hyper-V by Microsoft и VMware by Broadcom. Часть восьмая. Продолжение про хранение Опыт, IT, Proxmox, Linux, Виртуализация, Длиннопост

Потом, конечно, можно создать хоть Volume group, хоть thinpool, но логика кардинально другая. То есть, если не рассматривать дисковую подсистему, например, для ESXi, отдаваемую как тонкий том, или для Hyper-V отдаваемую как тонкий том из storage space \ storage space direct, то тип диска тонкий (динамический) \ толстый (статический) для VM задается при создании диска.

8.3 Продолжение про хранение – настройка нескольких дисков

Сборка зеркала из LVM из вновь добавленных дисков из GUI тоже ничуть не очевидна. Если она там вообще есть.

Со сборкой хоть зеркала, хоть чего, в ZFS – из GUI проблем нет

Переход на Proxmox (Proxmox GmbH, Vienna, Austria) с Hyper-V by Microsoft и VMware by Broadcom. Часть восьмая. Продолжение про хранение Опыт, IT, Proxmox, Linux, Виртуализация, Длиннопост

Точно так же можно добавить диски как Directory , но тоже без каких-то настроек. Ext4 и xfs. И все.

Переход на Proxmox (Proxmox GmbH, Vienna, Austria) с Hyper-V by Microsoft и VMware by Broadcom. Часть восьмая. Продолжение про хранение Опыт, IT, Proxmox, Linux, Виртуализация, Длиннопост

Что очень меня порадовало, так это то, что удалить Volume group с дисками виртуальных машин можно вообще без проблем. Раз – и удалено, никаких предупреждений «знаете, там у вас диски виртуальных машин, вы точно уверены».

8.4 Управление диском виртуальной машины.
При создании диска VM нельзя указать, что он толстый или тонкий. Зато его можно разместить на толстом или тонком томе, и задать настройки backup.
Изменение размера диска VM делается из меню управления виртуальной машиной, но тут хоть логика есть.

Особое изумление в управлении вызывает одна кнопка Move, но при этом со специальной пометкой delete source. Я же и так заказал move!
Но вместо этого делается copy.

Переход на Proxmox (Proxmox GmbH, Vienna, Austria) с Hyper-V by Microsoft и VMware by Broadcom. Часть восьмая. Продолжение про хранение Опыт, IT, Proxmox, Linux, Виртуализация, Длиннопост

При этом, если удалить сразу весь VG, и удалить диски из конфигурации VM, то добавить исходный диск, который не был удален при перемещении, нельзя. Ни через add hard drive, ни через add-import hard drive.
И переместить такой диск из управления дисками нельзя. Только удалить.
Зато он лежит в управлении дисками VM, как Unused disk. И ему можно еще раз сделать Move storage.
И добавление этого диска из управления VM доступно через кнопку Edit.
Очень, очень логично!

Итого.

GUI в Proxmox есть, но не отличается богатством функций. Большую часть что работ по сети, что работ по диску, приходится делать из командной строки.

В следующих частях: скорость локальных дисков, сетевые диски. Может что-то еще из базовых вопросов.

Литература
Quick n’ Dirty – Adding disks to Proxmox with LVM
Why there is a difference between LVM and LVM-Thin? – reddit
LVM и LVM-thin в Proxmox: Глубокое погружение
Home Lab With Proxmox
Proxmox to Vmware: How to migrate a Proxmox VM to Vmware ESXi
How to create and add a new virtual disk to a VM using command line.

Примечание.
На 21.08.2025 версии:
pve-manager/9.0.5/9c5600b249dbfd2f (running kernel: 6.14.8-2-pve)

kvm --version
QEMU emulator version 10.0.2 (pve-qemu-kvm_10.0.2-4)


proxmox-ve: 9.0.0 (running kernel: 6.14.8-2-pve)
pve-manager: 9.0.5 (running version: 9.0.5/9c5600b249dbfd2f)
proxmox-kernel-helper: 9.0.3
proxmox-kernel-6.14.8-2-pve-signed: 6.14.8-2
proxmox-kernel-6.14: 6.14.8-2
proxmox-kernel-6.8.12-13-pve-signed: 6.8.12-13
proxmox-kernel-6.8: 6.8.12-13
proxmox-kernel-6.8.12-9-pve-signed: 6.8.12-9
ceph-fuse: 19.2.3-pve1 (не уверен насчет этого компонента, отключил его обновления)
corosync: 3.1.9-pve2
criu: 4.1.1-1
frr-pythontools: 10.3.1-1+pve4
ifupdown2: 3.3.0-1+pmx9
ksm-control-daemon: 1.5-1
libjs-extjs: 7.0.0-5
libproxmox-acme-perl: 1.7.0
libproxmox-backup-qemu0: 2.0.1
libproxmox-rs-perl: 0.4.1
libpve-access-control: 9.0.3
libpve-apiclient-perl: 3.4.0
libpve-cluster-api-perl: 9.0.6
libpve-cluster-perl: 9.0.6
libpve-common-perl: 9.0.9
libpve-guest-common-perl: 6.0.2
libpve-http-server-perl: 6.0.4
libpve-network-perl: 1.1.6
libpve-rs-perl: 0.10.10
libpve-storage-perl: 9.0.13
libspice-server1: 0.15.2-1+b1
lvm2: 2.03.31-2+pmx1
lxc-pve: 6.0.4-2
lxcfs: 6.0.4-pve1
novnc-pve: 1.6.0-3
proxmox-backup-client: 4.0.14-1
proxmox-backup-file-restore: 4.0.14-1
proxmox-backup-restore-image: 1.0.0
proxmox-firewall: 1.1.1
proxmox-kernel-helper: 9.0.3
proxmox-mail-forward: 1.0.2
proxmox-mini-journalreader: 1.6
proxmox-offline-mirror-helper: 0.7.0
proxmox-widget-toolkit: 5.0.5
pve-cluster: 9.0.6
pve-container: 6.0.9
pve-docs: 9.0.8
pve-edk2-firmware: 4.2025.02-4
pve-esxi-import-tools: 1.0.1
pve-firewall: 6.0.3
pve-firmware: 3.16-3
pve-ha-manager: 5.0.4
pve-i18n: 3.5.2
pve-qemu-kvm: 10.0.2-4
pve-xtermjs: 5.5.0-2
qemu-server: 9.0.18
smartmontools: 7.4-pve1
spiceterm: 3.4.0
swtpm: 0.8.0+pve2
vncterm: 1.9.0
zfsutils-linux: 2.3.3-pve1

Показать полностью 6
[моё] Опыт IT Proxmox Linux Виртуализация Длиннопост
0
22
DmitriitheFals
25 дней назад
Лига Сисадминов
Серия Кудахтеры: Proxmox GmbH

Переход на Proxmox (Proxmox GmbH, Vienna, Austria) с Hyper-V by Microsoft и VMware by Broadcom. Часть седьмая из многих⁠⁠

Для лиги лени: общеизвестное и душное.

Часть 1. Общая
Часть 2. Gitlab и Nexus
Часть 3. Ansible и Ansible AWS
Часть 4. Наконец переходим к Proxmox
Часть 5, не запланированная. Обновляем Proxmox с 8.4 до 9.0. Неудачно.
Часть 6. Возвращаемся к запуску Ansible

Разница концепций. Часть 7.1 Обновления компонентов и система информирования.

13 августа 2025 года вышло обновление Proxmox до 9.0.5
было  pve-manager/9.0.3/025864202ebb6109 (running kernel: 6.14.8-2-pve)
стало pve-manager/9.0.5/9c5600b249dbfd2f (running kernel: 6.14.8-2-pve)

Но искать «что там было обновлено», это тот еще процесс.
То есть:
Вот большая статья: вышла версия 9, Proxmox Virtual Environment 9.0 with Debian 13 released
Вот Git с фиксами.

После обновления до 9.0.5, внезапно появился
/etc/apt/sources.list.d/pve-enterprise.sources
да и ладно

У Broadcom VMware все проще – вот патч (сейчас официально только по подписке), вот компоненты в нем.
У Microsoft  все еще проще – вот MicrosoftUpdate Catalog. Если выходят бесплатные обновления (для 2012 и 2012R2 – только платные, нужна подписка Extended Security Updates (ESU) for Windows Server, для 2008 нужна подписка premium assurance. Но обновления выходят, например:
2025-08 Security Monthly Quality Rollup for Windows Server 2008 R2 for x64-based Systems (KB5063947)

Поэтому можно сходить на
http://download.proxmox.com/debian/pve/dists/bookworm/pve-no...
http://download.proxmox.com/debian/pve/dists/trixie/

Скачать там файл
http://download.proxmox.com/debian/pve/dists/trixie/pve-no-s...

И увидеть, цитата

Package: pve-manager
Maintainer: Proxmox Support Team support@proxmox.com
Installed-Size: 3573
Provides: vlan, vzdump
Depends: apt (>= 1.5~), ..
Recommends: proxmox-firewall, proxmox-offline-mirror-helper, pve-nvidia-vgpu-helper
Conflicts: vlan, vzdump
Breaks: libpve-network-perl (<< 0.5-1)
Replaces: vlan, vzdump
Filename: dists/trixie/pve-no-subscription/binary-amd64/pve-manager_9.0.5_all.deb
Size: 580388

Окей, а как-то поудобнее можно?

Конечно после обновления можно увидеть:
cat /var/log/apt/history.log
Но это после обновления.

Очень, очень не хватает решения типа Windows Server Update Services (WSUS), но для Linux и Proxmox. Foreman+Katello говорят «ок». RedHat Satellite ? SpaceWalk:Satellite ?

Разница концепций. Часть 7.2 Сети

В ESXi «из коробки» все просто. Есть стандартный свитч, vSphere Standard Switch, vSS. Он мало чего умеет «из коробки», но самое главное, что вы можете завести несколько коммутаторов, и распределять физические порты сетевых карт, и порты виртуальных сервисов – самого менеджмента, сервисов, итд, как вам нравится.
Вместе с некоторыми (их опять поменяли) лицензиями вы получали vSphere Distributed Switch (VDS), с дополнительными функциями.
Если хотите добавить в жизнь интима - Single Root I/O virtualization (SR-IOV).
Хотите чего-то большего – покупайте VMware NSX.
У Microsoft в чем-то схожий подход. Есть Hyper-V switch с массой настроек исключительно из powershell.
Хотите большего – добро пожаловать в увлекательный мир Network Controller Server Role.
Хотите того же самого, но иначе – вот вам Set up networking for Hyper-V hosts and clusters in the VMM fabric, вот вам Set up logical networks in the VMM fabric, и вперед.

У Proxmox все немного не так. То есть, так то так, архитектура та же, x86, но.
За уровень «стандартного коммутатора» отвечает стандартный функционал Linux. Проблема в том, что он (как, впрочем, и в Broadcom, и в Microsoft) читаемо и полноценно настраивается только из командной строки. Режима Switch Embedded Teaming (SET) в нем нет, есть active-active bond, но.
Red Hat пыталась сделать что-то такое же, и даже статья есть - 8.3. Comparison of Network Teaming to Bonding, но это Red Hat.
Чтобы в этом разбираться, все равно необходим  базовый уровень знания сети, в масштабе CCNA: Switching, Routing, and Wireless Essentials, он же CCNA Routing & Switching ICND1 100-105 Course. Иначе вопросов будет больше, чем ответов. У Broadcom есть best practice – собирайте actve-active, LACP не нужен. Если вы упрт нркмн, то вот вам beacon probe и shotgun mode, можете упртс. Если хотите совсем упртс, то вот вам air-gap storage fabric, только лучше бы вы так не делали.
У Microsoft есть best practice – просто ставьте SET, он сам разберется.
У proxmox, их-за наличия Bridge, который по сути L2 switch, и iptables, появляется L3 конфигурация с NAT, но планирование сети заставляет каждый раз думать «как лучше-то».

Кроме того, в конфигурации сети отдельно английским по белому написано:

For the cluster network (Corosync) we recommend configuring it with multiple networks. Corosync does not need a bond for network redundancy as it can switch between networks by itself, if one becomes unusable. Some bond modes are known to be problematic for Corosync, see Corosync over Bonds.


Особенно мне понравилась строчка:
We recommend at least one dedicated physical NIC for the primary Corosync link

То есть, поскольку сетевые карты нынче идут, чаще всего, с двумя портами, то надо брать 2 карты по 2 порта, всего 4 порта, и один порт выделять под Corosync. Но если у меня конфигурация нормального человека, 2 порта по 25, это мне что, под кластер надо выделять целых 25G? А не жирновато?
При этом сценарии отказа описаны понятно и обоснованно, но как-то заставляют задуматься. Это же придется ставить на мониторинг не только состояние порта on\off\ CRC, но и, для оптики, уровень сигнала по SFP модулям с обеих сторон, RX power \ TX power.

Середины (типа vSphere Distributed Switch (VDS)) нет.
Зато есть SDN

От теории к практике.
Поскольку для этой серии статей у меня Proxmox развернут как вложенная (nested) виртуализация, то мне придется или переделать всю сеть, или пересобирать рабочие стенды, или ограничиться двумя виртуальными сетевыми картами.

К моему величайшему отвращению, Hyper-V Windows 11 'Default Switch' зачем-то снабжен никак нормально не настраиваемым DHCP сервером. В Server 2012\2016\2019\2022\2025 такого нет, если нет DHCP в сети, значит нет сети.

Конфигурация хоста Hyper-V:
Get-VMSwitch 'Default Switch' | fl – от этого виртуального свича все отключено.
Вот он мне и вредил, поскольку в нем и NAT и DHCP , и ничего в нем не настраивается, согласно Change Hyper-V (Default Switch) IP address range.

The Hyper-V Default Switch will randomly use one these IP address ranges based on the host system IP address:
Start IP: 192.168.0.0 – End IP: 192.168.255.255
Start IP: 172.17.0.0 – End IP: 172.31.255.255

Поэтому я новый виртуальный свитч и сделал, режим external. И все у него хорошо.
Конфигурация proxmox по умолчанию


auto lo
iface lo inet loopback
iface eth0 inet manual
auto vmbr0
iface vmbr0 inet static
address 192.168.10.202/24
gateway 192.168.10.1
bridge-ports eth0
bridge-stp off
bridge-fd 0

Конфигурация с двумя виртуальными сетевыми картами у меня будет выглядеть так:

auto lo
iface lo inet loopback
iface eno1 inet manual
iface eno2 inet manual

auto bond0

iface bond0 inet manual

bond-slaves eno1 eno2
bond-miimon 100
bond-mode active-backup
bond-xmit-hash-policy layer2+3

auto vmbr0

iface vmbr0 inet static
address  192.168.10.202/24
gateway  192.168.10.1
bridge-ports bond0
bridge-stp off
bridge-fd 0

Конфигурация с VLAN для рабочих сред описана в разделе Example: Use VLAN 5 for the Proxmox VE management IP with VLAN aware Linux bridge, конфигурация The next example is the same setup but a bond is used to make this network fail-safe.

Разница концепций. Часть 7.3 предисловие к теме «Дисковое пространство».

Чтобы понимать незначительные сложности, нужно немного отойти назад, в состояние «дисковых пространств» 15-20 лет назад, и огромный скачок для всего человечества за последние пять лет.

15 назад, в 2010 году, концепция дисковых пространств была достаточно проста.
Есть одиночные локальные диски, которые могут быть включены по IDE (уже крайне редко на тот момент), SATA, SCSI и SAS. Но интерфейс особого значения не имеет (то есть, еще как имеет, но это другая история), потому что глобально выбора конфигурации особо и нет.
Для домашней и офисной техники: 1 диск, без всяких массивов.
Для дисков с операционной системой: аппаратный RAID 1 (зеркало) из 2 дисков. Не надо забывать, что диски тогда были маленькими, как 72GB 2.5-inc SFF 3G Single Port SAS 10K, 146GB SCSI U320 или 146GB hot-plug Serial Attached SCSI (SAS).
Для дисков с данными для «быстрого» доступа: аппаратный RAID 10.
Для дисков с данными для «медленного» доступа: аппаратный RAID 5, если у вас диски меньше 1 терабайта, аппаратный RAID 6, если у вас диски больше 1 терабайта.
Потому что, запишите это уже большими буквами: RAID 5 на дисках бытового и начально-корпоративного сегмента, при размере одиночного диска больше 1 Тб, достаточно часто умирает при стандартном ребилде. Вероятности считайте сами.
Плюс локально включенные коробки с дисками.
И, для дисковых массивов, у вас есть FC 4g (c 2004), FC 8g (с 2008), и с 2007 года есть 10G Ethernet для iSCSI. 25G Ethernet появится только в 2018 году.
NFS поверх 1\10G, конечно, тоже уже есть. Apple File Service (AFS) еще не умер.
Современные технологии быстрого перестроения массивов уже почти есть в HPE Eva.
Еще есть  InfiniBand, но дорого.

Основная проблема – ребилд. Это долго, это дорого с точки зрения потери производительности, но это зачастую проще, чем переставлять ОС или поднимать данные из архивов. Поэтому везде RAID 1\10 и еще раз RAID. Альтернативы были, но все равно, RAID это было просто, понятно, наглядно, и не требует вмешательства администратора, особенно если есть запасной диск.

Сейчас все поменялось.
Окончательно ушли в историю диски на 15.000 и 10.000 оборотов, и та же судьба уже видна для дисков 7200 для массивов, и для дисков 5400 для ноутбуков. SSD с двумя оставшимися вариантами подключения, SAS и NVME, побеждают почти везде.
Появились технологии для гиперскейлеров, и не только – S2D, vSAN (StarWind дано был). И то, и другое, уже не redundant array of inexpensive disks, а Redundant Array of Independent Nodes (RAIN) .
Сети стали быстрее, диски быстрее, объемнее, и возникает другой вопрос – старые RAID контроллеры перестали справляться с производительностью новых дисков. Новые RAID контроллеры тоже не блещут при работе с NVME, но это уже другая история:
NVME Raid – We Need To Go Deeper, или что там на глубине. GPU over NVME, с водяным охлаждением

Проблема даже не в этом, а в том, что нет смысла держать разные диски на передней панели «под ОС и «под данные», с точки зрения работы, закупок, и в целом. Удобнее использовать один тип дисков, и никто не перепутает. В таком случае проще поставить или PCIe карту на 2 m.2 планки, или взять internal M.2 boot module или что-то типа Dell BOSS, собрать недоаппаратный или программный рейд на такой карте, и отдать остальные одинаковые диски, установленные в передние слоты, под данные, собрав тот или иной вид программного рейда.
НО.
Дальше начинаются «проблемы legacy 2.0».
В корпоративном варианте заказчику, за очень дорого, продадут и S2D и vSAN, со всеми их свистелками, типа быстрого перестроения при сбое, RAID 5+6, поддержке RDMA. Продадут со свичами Arista или Mellanox с их скоростями и cut-through (вместо Store-and-Forward), и lossless Ethernet, и так далее. Это все есть, это все работает, как и последние навороты в MPIO для IP в NVIDIA ConnectX-8 .
Это все есть, но это: 1) дорого 2) требует настройки 3)требует переписать драйвера 4)требует настроить сеть и следить за ней.
В то же время, существуют, как продукты, Ceph и drbd, то есть Linstor. И не только.
Они работают, но. Но настройка, скорость работы (задержки, и как следствие IOPS), проблемы связности, проблемы на ребилде, пожирание памяти как не в себя, и так далее.
В домашней лаборатории, где все работает, а отказ или split brain или остановка сервисов не важны – CEPH работает.
В масштабах VK – тоже работает, вопрос какой ценой.
Ceph вырос как проект 2007 года, времен медленных дисков небольшого объема, отсутствия на рынке «дешевого» варианта собрать хранилище на петабайт и больше, и даже работал, но в 2020 - 2021 году начал уходить с рынка. SUSE отказалась от развития, еще кто-то отказывался. FUJITSU Storage ETERNUS CD10000 S2 - The sale of this product was terminated in December 2019.
Причины понятны, сейчас петабайт хранения требует не двух стоек, а двух юнитов в одной стойке, а рынок опять меняется.
Поэтому Ceph для дома – пожалуйста, Ceph для VK облака или каких-то еще облаков – сколько угодно. Ceph для SMB или чуть выше – не знаю, зачем настолько жертвовать производительностью и иметь бонусом головную боль при обновлениях. И еще один не очевидный многим нюанс ниже.
Но люди верят, что он работает (это почти правда, если не рассматривать ребилд), быстрый  (нет), надежный (очень не всегда). Вопрос цены. Люди верят, что можно обмануть систему, взять бесплатное решение, дешевых людей, дешевое железо и получить производительность и надежность «как в облаке, но дешевле».
Кроме того, есть вопросы и к бекапу, и к восстановлению, и много к чему еще.
Но люди верят. Мерять производительность не хотят, тесты ребилда под нагрузкой делать не хотят, некоторые и бекапы не делают.

Сложность и нюансы в понимании (и отсутствии понимания) «зачем все это».
Для одного сервера все равно нужен какой-то RAID, в современных условиях, для одного сервера, с таким бизнесом, которому достаточно одного сервера, может быть аппаратный контроллер и будет неплохим решением. Для двух серверов уже может быть проще собрать отказоустойчивый кластер не на уровне железа и репликации средствами ОС, а через репликацию сервиса. Базы данных это умеют, для репликации файловых кластеров с низкой нагрузкой подойдет что угодно, остальные сервисы типа etcd тоже реплицируются без кластерной файловой системы.

Разница концепций. Часть 7.4 «Локальное дисковое пространство».

Для Hyper-V все проще некуда. Собрал диски – хочешь в soft raid, хочешь в storage space (не путать с S2D), хочешь на аппаратном рейде. Отформатировал, создал тонкие или толстые виртуальные тома ОС, создал на них тонкие (динамические) или толстые файлы (vhdx), отдал файлы виртуальным машинам, и все.
Есть проблемы с производительностью storage space в parity, если вдруг не читали вот это.
Новый ноутбук: скорость, плюсы-минусы, DiskSPD, Hyper-V и продолжение про методику тестирование скорости
Устроено все проще некуда, диск виртуальной машины == файл с заголовком.
Для Broadcom ESXi все еще проще. Создал «на чем есть» storage, создал виртуальные машины с нужными дисками.
Устроено все проще некуда, диск виртуальной машины == 2 файла. Файл с текстовым описанием, и файл с RAW данными.

Для Proxmox начинается проблема выбора: что взять. Есть Ext4, есть ZFS, есть BTRFS. Есть XFS.
Был GlusterFS, но он все, цитата

As GlusterFS is no longer maintained upstream, Proxmox VE 9 drops support for GlusterFS storages. Setups using GlusterFS storage either need to move all GlusterFS to a different storage, or manually mount the GlusterFS instance and use it as a Directory storage. Roadmap

ПОМЕР.


Development has effectively ended. For years Red Hat drove development for its RHGS product, but with the EOL of RHGS at the end of 2024. Date: 2024-06-25

Само разбиение дисков сделано странно.
ISO images в GUI это /var/lib/vz/template/iso
CT templates в GUI это  /var/lib/vz/template/cache
Конфигурация контейнеров /etc/pve/lxc
Конфигурация виртуальных машин /etc/pve/qemu-server

Диски виртуальных машин – о, тут все странно. В конфиге диск прописан как
scsi0: local-lvm:vm-100-disk-0,iothread=1,size=5G
но это блочный lvs том, который виден по команде lvs , или
find /dev | grep vm
И получаем /dev/pve/vm-100-disk-0
или команда
lvdisplay
покажет что где и как.
Неприятно с точки зрения операций с локальными томами. С ZFS та же история.

Разница концепций. Часть 7.5 «Локальное дисковое пространство - добавление».

Окей, создам отдельный том
New-VHD -Path C:\test\Proxmox\ data.vhdx -LogicalSectorSize 4KB -PhysicalSectorSizeByte 4KB -SizeBytes 105GB -Dynamic
добавлю его через GUI к Proxmox, но это уже будет другая история

Литература

Single Root I/O virtualization (SR-IOV)
Set up networking for Hyper-V hosts and clusters in the VMM fabric
Set up logical networks in the VMM fabric
How to configure System Center VMM Part 1 – Basic Design
8.3. Comparison of Network Teaming to Bonding
3.18. Bridge and Bond Configuration
Proxmox Network Configuration
How to enable DHCP on Hyper-V switch
Hyper-V - Default Switch & DHCP Server
Configuring VM Networking on a Hyper-V NAT Switch
A Practical Guide to Hyper-V Virtual Switch Configuration
Change Hyper-V (Default Switch) IP address range

Proxmox Ebook Free Download for Home Labs – тут почему-то удалили pdf, но он есть тут, хотя он и для 7.1

Proxmox for Everyone: Your Complete Guide to Virtualization, Kubernetes, and Homelab Automation (Next-Gen Infrastructure Strategies Book 2) Kindle Edition by da li (Author), PlanB Mr (Author)

Blockbridge : Ultra low latency all-NVME shared storage for Proxmox
Filesystem Features XFS vs BTRFS vs ZFS
VM Disk location (Can't find the VM disk)
How to move VM to another storage

Показать полностью
[моё] Linux Proxmox Виртуализация IT Microsoft Vmware Hyper-v Windows Текст Длиннопост
0
16
DmitriitheFals
26 дней назад
Лига Сисадминов
Серия Кудахтеры: Proxmox GmbH

Переход на Proxmox часть 6. Возвращаемся к запуску Ansible⁠⁠

Для лиги лени: общеизвестное и душное.

Часть 1. Общая
Часть 2. Gitlab и Nexus
Часть 3. Ansible и Ansible AWS
Часть 4. Наконец переходим к Proxmox
Часть 5, не запланированная. Обновляем Proxmox с 8.4 до 9.0. Неудачно.

Часть 6. Возвращаемся к запуску Ansible. Тоже не запланированная статья.

Как мне верно сказали в комментариях к статье, не надо ставить  Ansible из репозитория Trixie, а если поставил, то надо удалить и переставить.
sudo apt remove --purge ansible
sudo apt autoremove –purge
sudo ln -s /usr/bin/python3 /usr/local/bin/python
sudo ln -s /usr/bin/pip3/usr/local/bin/pip
sudo ln -s /usr/bin/python3-venv /usr/bin/venv
pip install --user ansible

Естественно, так просто оно не заработало, выдав ошибку «error: externally-managed-environment»

Пришлось сделать
apt install python3.11-venv
apt install python3-pip
python3 -m pip install --user ansible

Было: ansible [core 2.14.18]
Стало: ansible [core 2.18.7] (пока писал заметку, вышло обновление до 2.18.8)

При том, что latest - v2.19.0

Заодно обновил Proxmox. Pveversion:
было  сразу после установки pve-manager/9.0.3/025864202ebb6109 (running kernel: 6.14.8-2-pve)
стало на 14.08.2025: pve-manager/9.0.5/9c5600b249dbfd2f (running kernel: 6.14.8-2-pve)

Дальше все по инструкции:

Проверяем SSH от ансибл хоста до целевого.
Добавляем хост в /etc/ansible/hosts, или куда вам надо,
И проверяем, как по инструкции How To Install and Configure Ansible on Ubuntu 20.04 от digitalocean
ansible-inventory --list -y

Правим все ошибки, в моем случае прописываем в конфигурации хостов ansible_port, если вы (как я) сменили порт для SSH на одном из серверов:

[servers:vars]
ansible_port=2425

И делаем не как в инструкции (потому что я поленился прописать SSH ключи), а по народно-колхозному
ansible proxmox -m ping --ask-pass
получая ..
"msg": "to use the 'ssh' connection type with passwords or pkcs11_provider, you must install the sshpass program"

Что ж. В колхоз так в колхоз, потом пропишу ssh ключи «как надо», хотя правильно через Vault все делать, это прямо в руководстве прописано. Но, пока что
apt install sshpass
и система заработала.
В /etc/ansible/hosts прописано:

[servers]
server001 ansible_host=192.168.10.201

[servers:vars]
ansible_port=2425

[proxmox]
192.168.10.202

[all:vars]
ansible_python_interpreter=/usr/bin/python3

Теперь проверим, что там по фактам:
ansible proxmox -m setup --ask-pass
ansible proxmox -m command -a "uptime" --ask-pass
ansible proxmox -m command -a "pveversion" --ask-pass
ansible proxmox -m command -a "echo ' Hello World '" --ask-pass

И можно переходить к чтению сайта Proxmox VE Helper-Scripts, и даже к чтению скрипта Proxmox VE Post Install

Литература
If you boot Proxmox from an SSD, disable these two services to prevent wearing out your drive
Installing Ansible on specific operating systems
Installing and upgrading Ansible with pip
How to solve "error: externally-managed-environment" when installing via pip3
Run Your First Command and Playbook
Creating and Running your First Ansible Playbook
How to Use Ansible: A Reference Guide
How To Install and Configure Ansible on Ubuntu 20.04
The Essential Ansible Tutorial: A Step by Step Guide
Connecting to hosts: behavioral inventory parameters
Connection methods and details
Discovering variables: facts and magic variables
An introduction to Ansible facts
Proxmox VE Helper-Scripts

В следующей части:
Что-то будет, но пока не знаю чего.
Наверное, про то, что все снести и переделать. Но это не точно.
Наверное, для начала вернусь к разнице концепций дисков.

Показать полностью
[моё] Linux Proxmox IT Виртуализация Текст Длиннопост
0
1
Вопрос из ленты «Эксперты»
Burinis
1 месяц назад
Про железо

Как пробросить дискретную видеокарту в VMWare Workstation Pro или VirtualBox?⁠⁠

Говорят, что для этого нужен VT-D. У меня в биосе есть только опция "Virtualization Technology" (включена).
Хост:
Ноут HP Pavilion Gaming Laptop 15
Windows 10
Intel Core i5-8300H
NVIDIA GeForce 1060 MaxQ
1 ТБ HDD+256 ГБ SSD
12 ГБ ОЗУ
Плата HP 8478 (U3E1) с БИОС версии F.11

На виртуалках установлены Windows 98, XP и 7.

Вопрос Спроси Пикабу Компьютерное железо Virtualbox Vmware Виртуальная машина Виртуализация Компьютерная помощь Текст
29
109
Fighter34RUS
4 месяца назад
Народный контроль

Ответ Timeweb.Cloud в «Timeweb Cloud: под видом i9-9900K выдали Ivy Bridge с QEMU. Как я купил “High CPU” и получил эмуляцию из 2012 года»⁠⁠2

Ответ то - говно.
Любой адекватный гипервизор вполне себе различает штатное выключение через ОС и падение
Ну и обрезать проц по инструкциям до стареньких ксеонов и рекламировать его как "не ниже уровня Intel i9-9900K" - это полный треш. Семейство процессоров подразумевает определённый набор инструкций, которые могут быть необходимы для нагрузки. И "беспокойство" по поводу миграций - тоже в уши писаете, мигрировать нужно между одним поколением CPU или "вверх". Вниз миграция через выключение - это тоже стандартная практика.
Если в вашей конторе реально считают что это всё норма - увольте тех кто у вас на позициях технарей и наймите инженеров а не маляров

Timeweb Обман Хостинг Виртуализация DevOps Разоблачение IT Обман клиентов Роспотребнадзор Интернет-мошенники Жалоба Служба поддержки Длиннопост Ответ на пост Текст
51
321
Timeweb.Cloud
Timeweb.Cloud
4 месяца назад
Народный контроль

Ответ на пост «Timeweb Cloud: под видом i9-9900K выдали Ivy Bridge с QEMU. Как я купил “High CPU” и получил эмуляцию из 2012 года»⁠⁠2

Привет! Мы внимательно прочли ваш пост и хотим детально разъяснить техническую сторону.

В серверах для тарифов HighCPU используются процессоры не ниже уровня Intel i9-9900K  с указанными в панели характеристиками, все честно. Отображение Ivy Bridge в диагностических утилитах (в том числе CPU-Z) — это особенность QEMU-виртуализации, а не признак использования устаревших процессоров. Набор доступных инструкций для виртуальных CPU (vCPU) стандартизируется для обеспечения возможности бесшовной миграции облачных серверов между физическими машинами. Это общепринятая практика в сфере облачных вычислений.

Особенность в том, что виртуальная машина видит базовые характеристики vCPU, без учета динамических технологий, таких как Turbo Boost. Но процессы vCPU выполняются на физических ядрах серверов, частота которых будет выше базовых значений за счет использования технологии Turbo Boost.

Разница в показателях бенчмарков тоже объясняется особенностями виртуализации. В отличие от выделенного сервера, виртуальные CPU функционируют в разделяемой среде, что влияет на результаты синтетических тестов. При этом для реальных рабочих нагрузок производительность остается на высоком уровне. Поэтому сравнивать процессор без виртуализации и с виртуализацией некорректно.

Про самопроизвольное включение сервера. Мы посмотрели, что вы выключали не сам сервер, а операционную систему через интерфейс Windows. Выключение операционки это триггер несоответствия базовому состоянию, который запускает ее автоматическое переподключение. Коротко, если ОС упала, мы ее включим, так как считаем это аварийной ситуацией. Выключать сам сервер нужно из панели управления или через API.

По факту ваш виртуальный сервер полностью соответствует всем заявленным характеристикам. Однако если хотите, сделаем вам возврат средств. Или рассмотрите для Майнкрафта выделенный сервер, если важны именно цифры из бенчмарков.

Timeweb Обман Хостинг Виртуализация DevOps Разоблачение IT Обман клиентов Роспотребнадзор Интернет-мошенники Жалоба Служба поддержки Длиннопост Ответ на пост Текст
85
444
Pikasket96
4 месяца назад
Народный контроль

Timeweb Cloud: под видом i9-9900K выдали Ivy Bridge с QEMU. Как я купил “High CPU” и получил эмуляцию из 2012 года⁠⁠2

UPD:

Update: Благодарю внимательных читателей. Перепроверил отчёт HWInfo — действительно, на виртуалке доступны инструкции AVX и AVX2, как и у Ivy Bridge. Ошибся в изначальном утверждении об их отсутствии — признаю и исправляюсь. Однако Turbo Boost, AVX-512, EIST и Thermal Monitor отсутствуют, а производительность всё равно остаётся на 40% ниже, чем у заявленного i9-9900K.
Суть кейса не изменилась — заявлена одна конфигурация, а по факту выдали совсем другую. Спасибо за замечания.

Update #2:
Timeweb дал официальный ответ, в котором ссылается на QEMU и особенности виртуализации. Однако мой вопрос был не в этом. Я оплатил по обещанной конфигурации i9-9900K @ 5.5 ГГц. В ответ получил QEMU-профиль Ivy Bridge 2012 года, производительность — на ~40% ниже. Это не спор о виртуализации. Это спор о честности маркетинга.


1. Что обещали:

В апреле 2025 я приобрёл виртуальный сервер у Timeweb Cloud по тарифу High CPU.
На сайте и в рекламных материалах указывались следующие характеристики:

  • 2 виртуальных CPU “до 5.5 ГГц”;

  • упоминание Intel Core i9-9900K или Xeon E-2388G (14нм, современная архитектура);

  • позиционирование как “максимально производительный вариант” для требовательных задач.

Timeweb Cloud: под видом i9-9900K выдали Ivy Bridge с QEMU. Как я купил “High CPU” и получил эмуляцию из 2012 года Timeweb, Обман, Хостинг, Виртуализация, DevOps, Разоблачение, IT, Обман клиентов, Роспотребнадзор, Интернет-мошенники, Жалоба, Служба поддержки, Длиннопост

Заявлен CPU до 5.5 ГГц на базе i9-9900K, фактически получена эмуляция Ivy Bridge 2012 года с производительностью вдвое ниже. Тариф High CPU от Timeweb Cloud — пример несоответствия рекламных характеристик.


2. Что я получил:

После запуска сервера я провёл базовую диагностику с помощью:

  • CPU-Z Benchmark;

  • HWiNFO;

Вот что оказалось на деле:

  • Архитектура CPU — Ivy Bridge, 22нм (выпуск 2012 года);

  • Профиль процессора: QEMU Virtual CPU version 4.2.0;

  • Отсутствие Turbo Boost, AVX, AVX2, EIST, Thermal Monitor и других инструкций, характерных для заявленного i9-9900K;

  • Производительность в CPU-Z: менее 340 баллов на ядро, при том что настоящий i9-9900K выдаёт 550–570 баллов.

[здесь будут скрины замеров]

Timeweb Cloud: под видом i9-9900K выдали Ivy Bridge с QEMU. Как я купил “High CPU” и получил эмуляцию из 2012 года Timeweb, Обман, Хостинг, Виртуализация, DevOps, Разоблачение, IT, Обман клиентов, Роспотребнадзор, Интернет-мошенники, Жалоба, Служба поддержки, Длиннопост

Замер CPU-Z показал 337 баллов на одно ядро.Триста тридцать семь, Карл. В 2025 году. За “5.5 ГГц”. При заявленном i9-9900K.


3. Что ответила поддержка:

Сначала мне сказали, что это "особенность виртуализации", а Turbo Boost "работает, но не отображается".
Позже пришёл ответ от техспециалиста, где было написано буквально:

“Базовая частота, как и архитектура, может отображаться обобщённой.”

🧠Поддержка пытается объяснить отсутствие нужных инструкций, пониженную частоту и даже старую архитектуру CPU тем, что “виртуализация так отображает”. Но дело не в отображении — дело в том, что внутри работает другая, устаревшая модель процессора, которая физически не может дать производительность i9-9900K.


4. Что я сделал:

  • Написал официальную претензию через тикет-систему;

  • Остановил сервер до разрешения спора;

  • Потребовал либо сервер с реальным заявленным CPU, либо возврат средств;

  • Подготовил пакет документов для чарджбека через банк, а также обращений в Роспотребнадзор и ФАС.


5. Мои выводы:

Вместо “High CPU” с i9-9900K выдают:

  • устаревший CPU-профиль Ivy Bridge;

  • с заниженной производительностью;

  • без критичных инструкций;

  • и с откровенно слабой поддержкой, которая пытается это замаскировать словами вроде “обобщённая архитектура”.

Если вы покупаете у Timeweb Cloud — будьте внимательны и проверяйте конфигурацию.

Если нужно — могу выложить архив со всеми скринами, логами, перепиской.

P.S. Когда выключение - не гарантия

Пока я готовил этот пост, мой сервер внезапно оказался включённым — без каких-либо уведомлений от техподдержки и без записей об этом действии в панели управления. Если это был внутренний аудит или техническая проверка — со стороны Timeweb не последовало ни одного пояснения.

На всякий случай я перепроверил конфигурацию — всё осталось как было:
тот же профиль QEMU на Ivy Bridge, та же потеря производительности до -30%, те же отсутствующие инструкции.

Но ситуация неожиданно открыла новую проблему:
самовольное включение виртуального сервера — это не просто технический сбой.
Это нарушение базовых ожиданий от IaaS-платформы.

Я — администратор.
Если я отключаю сервер, это значит, что я беру ответственность за его остановку и статус.
И я ожидаю, что хостинг это решение уважит.
Это не прихоть. Это — норма информационной безопасности и доверия в сфере VPS/IaaS.

Показать полностью 2
[моё] Timeweb Обман Хостинг Виртуализация DevOps Разоблачение IT Обман клиентов Роспотребнадзор Интернет-мошенники Жалоба Служба поддержки Длиннопост
147
Посты не найдены
О нас
О Пикабу Контакты Реклама Сообщить об ошибке Сообщить о нарушении законодательства Отзывы и предложения Новости Пикабу Мобильное приложение RSS
Информация
Помощь Кодекс Пикабу Команда Пикабу Конфиденциальность Правила соцсети О рекомендациях О компании
Наши проекты
Блоги Работа Промокоды Игры Курсы
Партнёры
Промокоды Биг Гик Промокоды Lamoda Промокоды Мвидео Промокоды Яндекс Директ Промокоды Отелло Промокоды Aroma Butik Промокоды Яндекс Путешествия Постила Футбол сегодня
На информационном ресурсе Pikabu.ru применяются рекомендательные технологии