
История
29 постов
29 постов
13 постов
34 поста
35 постов
29 постов
7 постов
8 постов
39 постов
6 постов
21 пост
8 постов
6 постов
24 поста
3 поста
4 поста
Автор текста: TilekSamiev
В фантастическом фильме Стивена Спилберга «Особое мнение» 2002 года представлен футуристический и концептуальный компьютерный интерфейс. Здесь отрывок, в котором Том Круз использует его.
Все согласятся, что интерфейс этого будущего невероятен и желанен. Если призадуматься, что является его самым удивительным аспектом? Много лет назад можно было бы сказать, что это тонкие экраны. Или невероятная сенсорная технология. Сегодня у нас есть и то, и другое! На самом деле, то, что у нас есть сегодня, даже лучше; мы можем отображать на экране более двух цветов, намного лучше, что есть в антиутопическом будущем Филипа К. Дика.
Сегодня самым удивительным аспектом является то, что это интерфейс, который не заставляет ждать пользователя. Вместо того, чтобы показать ему анимацию, потому что он переключает приложение или запускает программу, он идет в ногу со всем, что пользователь говорит ему делать в реальном времени. Компьютер ждёт человека, а не наоборот.
В настоящее время помимо терминалов командной строки и нескольких других дополнительных технологий, современные пользовательские интерфейсы даже близко не приближаются к такому фантастическому будущему.
Интерфейсы командной строки (CLI) доминировали на заре вычислительной техники. До того, как персональные компьютеры обрели популярность, они были предназначены исключительно для тех, кто выучил команды для работы с ними. Первые компьютеры, такие как машины IBM, Apple и ПК, приветствовали пользователей командной строкой — чем-то таким простым, как C:\>_, ожидая ввода команд.
Такие команды, как dir для просмотра файлов или type для просмотра текстовых файлов, были нормой. Хотя этот подход имел свои преимущества с точки зрения прямого управления, он также был подвержен ошибкам пользователя, особенно при случайном вводе команд, таких как format или rm -rf в Unix.
Затем, массовое производство персональных компьютеров привело к появлению графических пользовательских интерфейсов (GUI). Они представили иконки и разместили большую часть функций, которые можно было бы использовать прямо в UI. Цель состояла в том, чтобы свести к минимуму риск того, что пользователи непреднамеренно повредят систему. Хотя командная строка до сих пор используется программистами, с середины 1980-х годов GUI стал доминирующим режимом потребительских персональных вычислений — в частности, подмножество GUI, известное как WIMP (окна, значки, меню, указатель).
GUI, несомненно, стали прорывом в области UX, когда они впервые появились в Macintosh от Apple в 1984 году. Персональные компьютеры только начинали внедряться среди населения, и их функциональность была незнакома большинству. Начинающему пользователю нужно было понять и изучить, что может делать компьютер, и GUI позволял им делать это с помощью меню, иконок и виджетов. Они преодолевали разрыв между техническими и не-техническими специалистами.
Macintosh OS была революцией. И людей, использующих компьютеры, внезапно стало экспоненциально больше, потому что интерфейс стал более доступным для менее технически подкованной аудитории. Переход от CLI к GUI абстрагировал трудоёмкое вербальное общение между людьми и компьютерами и заменил его визуально привлекательными, дорогостоящими интерфейсами. С абстрагированием командной строки все стало возможным! Как далеко мы могли зайти?
Очевидно, далеко. В эпохальном 2007 году командную строку описывали как вышедшую из моды из-за её неумолимого синтаксиса и труднозапоминающихся команд. Внедрение графического интерфейса пользователя было настолько успешным в то время, потому что командная строка просто не казалась доступной для не-разработчиков.
Однако чем сложнее становилось программное обеспечение, тем сложнее было ориентироваться только с помощью графического интерфейса. GUI принесли с собой сложные меню и панели инструментов, часто заставляя пользователей чувствовать себя потерянными среди множества немаркированных кнопок. Страх нажать не ту кнопку был реальной проблемой. Хотя GUI были визуально привлекательны, они могли быть пугающими и разочаровывающими для пользователей, которые хотели более быстрого способа взаимодействия со своими компьютерами.
AutoCAD — яркий тому пример. Программное обеспечение для 2D- и 3D-чертежей впервые было выпущено в 1982 году. Его обширная функциональность привела к сложному пользовательскому интерфейсу, заваленному меню, подменю и подподменю. За эти годы он добавил головокружительное количество сочетаний клавиш, пытаясь помочь своим пользователям ориентироваться в широте и глубине его функций.
Тем не менее, для среднего потребителя командная строка — это загадочное и немного пугающее место. Именно это побудило к попыткам сделать CLI более простым в использовании.
Например, в CLI Cisco был инструмент под названием Context Sensitive Help, который предлагал два типа справки (словесная справка и справка по синтаксису команды) при вводе ?. Ранний текстовый редактор Vim имел командную строку. Он использовал команды типа :wq для сохранения и выхода, что было быстро. А онлайн-IDE, Repl.it, попыталась объединить элементы GUI и CLI в то, что они назвали визуальной командной строкой или CLUI.
Среди сложности GUI появился проблеск надежды в виде Поиска. Google продемонстрировал, что может найти что угодно в Интернете быстрее, чем пользователи находят что-либо на своих компьютерах. Это привело к идее обучения компьютера с помощью естественного языка.
В 2004 году Google перенесла эту концепцию на рабочий стол с помощью инструмента, который позволял пользователям искать как в Интернете, так и на своем компьютере файлы и программы с помощью всего нескольких нажатий клавиш. Внезапно набор текста стал стильным и эффективным способом взаимодействия с ПК, напоминающим командную строку, но более доступным.
2007 год стал поворотным моментом для поиска в интерфейсах программного обеспечения. Excel представил автозаполнение формул, Visual Studio включил поиск файлов, который также выполнял функции командной строки, а Apple расширила свои возможности поиска, представив поиск в меню справки в OS X Leopard.
Благодаря этим инновациям Поиск стал неотъемлемой частью пользовательского опыта. Пользователям больше не приходилось расшифровывать зашифрованные команды, такие как dir; Вместо этого они могли искать нужный инструмент, используя естественный язык.
Но графические интерфейсы работают хорошо тогда, когда количество альтернативных элементов или действий невелико. Графический интерфейс плохо масштабируется — даже поиск записей электронной почты утомителен.
Стандартные графические интерфейсы с их выпадающими меню, кнопками проверки и древовидными списками просто не могут сравниться с диапазоном опций, которые текстовый интерфейс предоставляет без усилий. Всего пятью буквенно-цифровыми символами вы можете выбрать одну из сотни тысяч возможных последовательностей. И выбор любой последовательности происходит так же быстро, как и любой другой последовательности (ввод пяти символов занимает примерно 1 секунду). Попробуйте придумать нетекстовый интерфейс, который мог бы сделать то же самое!
У системы WIMP есть очевидные преимущества. Она упрощает понимание того, как работает компьютер, прикрепляя метафоры физического мира ко всем действиям. Мы настолько привыкли к системам WIMP, что может потребоваться минута, чтобы вспомнить, в какой степени ее основные строительные блоки сформированы: «Файлы» помещаются в «папки», «удалённые» элементы отправляются в «корзину», действия разбиваются на разделы в «меню» панели задач в верхней части окна, а значки, такие как дискета, отражают такие действия, как сохранение файла (возможно, пришло время обновить его).
Использование компьютера с графическим интерфейсом, требующим много перемещений и кликов, как правило, несколько медленнее, чем использование компьютера с командной строкой, но кривая обучения гораздо круче в интерфейсе командной строки, где визуальной метафоры не существует, а каждое действие требует знания определённой команды. Клики, копирование и создание папок на ПК требуют нескольких щелчков или сочетаний клавиш. В командной строке это требует знания таких команд, как cd, cp и mkdir.
Освоение командной строки имеет явные преимущества. Многие программисты утверждают, что система WIMP только замедляет их. Например, графический интерфейс использует больше аппаратного обеспечения компьютера, чем текстовый интерфейс. Гики любят командные строки просто потому, что они хотят знать, что делают. Эту идею овладения командной строкой можно увидеть и в других отраслях, помимо разработки программного обеспечения и оборудования. Блумбергский терминал, широко используемый в финансовой отрасли, имеет не лучший вид, но опытные пользователи, которые освоили эту неэлегантную систему, работает на ней исключительно с помощью клавиатуры.
Это касается не только настольных компьютеров, но и смартфонов. В современном мире у каждого из нас в карманах есть потрясающая мощь лучших компьютеров в истории человечества. Вычислительная мощность на кончиках наших пальцев была бы невообразимой даже для самых смелых мыслителей тридцать лет назад.
Эти мощные устройства должны продвигать наши рабочие процессы вперёд. И всё же, почти без исключения, мы ждём наши компьютеры, а не наоборот. Мы привыкли думать, что ждать загрузки приложения и программ более 30 секунд или прерывать рабочий процесс, чтобы посмотреть полусекундную анимацию тысячу раз в день, совершенно нормально.
Подумайте обо всех анимациях, которые среднестатистический пользователь видит за день: переключение между пространствами в Mac OS, разблокировка 1Password, ожидание, пока iOS покажет SpringBoard после нажатия кнопки «Домой», переход в полноэкранный режим из приложения Mac OS или переключение между вкладками в мобильном Safari.
Однажды Apple поймёт, что они оставили зияющую дыру в своей стратегии UX и что переключение задач с помощью Cmd + Tab тоже должно быть анимировано. Умножьте длину этой анимации на среднее количество переключений задач в день, на количество пользователей, на их стоимость в секунду, и вы увидите, что миллионы долларов в год в глобальной производительности испарились за одну ночь.
Анимация — это особенно вопиющий визуальный трюк, но есть и другие: пустое пространство настолько экстравагантное, что на экране может поместиться лишь небольшое количество контента; слишком большой размер шрифта; подменю, где ряд ссылок был бы не хуже; немаркированные значки, которые выглядят аккуратно, но оставляют пользователей гадать, что они делают; фиксированные заголовки, которые скрывают контент. Список можно продолжать.
Хотя Поиск стал значительным улучшением, сочетания клавиш оставались более быстрым способом навигации и управления цифровыми технологиями, особенно для опытных пользователей. Однако эти сочетания клавиш часто казались секретными кодами, известными лишь избранным, что делало их сложными для изучения новичками. Задача заключалась в том, чтобы сделать сочетания клавиш более доступными и понятными для всех. Сочетание поиска и командной строки привело к созданию палитры команд.
Один из самых ранних примеров современной палитры команд принадлежит Джо Скиннеру, создателю Sublime Text, который анонсировал её как часть бета-версии Sublime Text 2 в 2011 году. Это был большой шаг вперед в UX для программистов, уже привыкших к использованию командной строки. Это не только помогло им двигаться быстрее, используя только клавиатуру, но и означало, что им больше не нужно было запоминать все сочетания клавиш. Вместо этого они могли вводить то, что хотели, и палитра команд интеллектуально находила и выполняла нужное действие.
Палитра команд обычно состоит из трёх основных элементов: одного сочетания клавиш для вызова палитры, нечеткого сопоставления для поиска команд и способа просмотра прямых сочетаний клавиш для будущего использования. Этот дизайн интерфейса взял лучшее из терминала и графических интерфейсов, объединив их в удобное для пользователя и эффективное решение.
Сегодня концепция палитр команд распространилась на различные программные приложения, став стандартной функцией во многих из них. Такие инструменты, как Photoshop, MS Office, Notion, Nuclino и Deepnote, внедрили палитру команд как средство упрощения взаимодействия с пользователем. Кроме того, голосовые помощники, такие как Siri, Alexa и Google Assistant, по сути, приняли концепцию палитры команд, позволяя пользователям выполнять задачи с помощью голосовых команд, полностью устраняя необходимость в визуальном интерфейсе.
Разработки в области голосовых интерфейсов намекают на возможность расширения этого до палитр команд. А GPT-3 от OpenAI не просто открыл двери для забавных бесед с чат-ботами, которыми можно похвастаться в соцсетях, но и вывел модели обработки языка на новый уровень.
Это, в сочетании с голосовыми командами, может стать большим достижением в плане доступности, упрощая навигацию по продукту для любого человека без особых предварительных знаний. Это заставило бы палитры команд выйти на шаг за рамки «только клавиатуры».
Палитра команд Windows
Постепенно, а затем внезапно, как кажется, командная строка вернулась, помогая с ведением журнала, рабочими процессами, сочетаниями клавиш и другими вспомогательными функциями. Теперь мы достигли следующего поколения: командная строка, которая одновременно мощная и доступная; инструмент, который эффективен для технических пользователей без пугающей кривой обучения прошлых десятилетий. Более того, мы видим, как компании извлекают выгоду из этого увлечения скоростью и эффективностью: например, Superhuman, который позиционирует себя как «самый быстрый опыт работы с электронной почтой из когда-либо созданных».
Superhuman, современная альтернатива Gmail, имеет собственную командную строку, активируемую нажатием Command + K. Навигация в приложении разработана таким образом, что движения пользователя естественно быстры. Пользователь вынужден использовать клавиатуру, а не мышь или трекпад. Но Superhuman — это лишь один пример возвращения к CLI. Возможно, наиболее заметным из них является Stripe, которая в ноябре 2019 года объявила о выпуске собственного интерфейса командной строки.
Другие примеры включают:
Linear, инструмент отслеживания ошибок и современная альтернатива Jira.
Notion и Slack, которые размещают свои основные инструменты за меню с косой чертой (/).
Amie, приложение для повышения производительности.
Quill, профессиональный обмен сообщениями для групп и коман.
Slapdash, который объединяет приложения под одной панелью команд.
Существует множество веб-браузеров командной строки. Обычно на ум приходит классический Lynx, а также ELinks. Оба они способны отлично просматривать базовые веб-сайты HTML.
WordGrinder — это текстовый процессор на базе терминала.
Можно создавать и проводить презентации полностью из терминала. Программа называется «tpp» (Text Presentation Program), и она есть практически в каждом репозитории на планете.
Midnight Commander, который также известен как просто mc. Открытый «клон» знаменитого файлового браузера Norton Commander.
cmus — это музыкальный проигрыватель.
То, что можно было бы назвать менеджером окон в графическом рабочем столе, в терминалах называется терминальным мультиплексором — та же идея, более или менее. Существует три терминальных мультиплексора, которые большинство людей склонны использовать: GNU Screen, tmux и Byobu.
По своей сути шаблон пользовательского интерфейса командной строки быстрый, понятный и расширяющий возможности, заставляя даже не-разработчиков чувствовать себя хакерами следующего поколения. В отличие от любых современных интерфейсов, терминал быстрый и отзывчивый. В нем нет анимации или другого лишнего визуального багажа.
Составность современных пользовательских интерфейсов практически нулевая. Даже копирование текста из современного веб-приложения может быть сложной задачей, если элементы HTML не вложены оптимально.
Многие из разработчиков создают веб-приложения для других людей, одновременно избегая их сами, насколько это возможно. В то время как пользователи перемещаются с обычной скоростью по страницам в Интернете, они сидят в терминальных средах, которые не просто быстры, но и обещают невероятные достижения в производительности для любого, кто готов потратить время на их освоение.
Если вы спросите веб-дизайнера об элементах практического дизайна в современных интерфейсах, он расскажет вам о разборчивости текста, интуитивности и пустом пространстве. Красивые и дружелюбные пользовательские интерфейсы — это хорошо, но истинные ценности хорошего интерфейса — это скорость и эффективность, чтобы сделать их пользователей максимально продуктивными. Успешный интерфейс — это не тот, который хорошо выглядит на неподвижном снимке экрана, это тот, который максимизирует производительность и позволяет продолжать двигаться.
Но ни терминал, ни сегодняшние десктопные и веб-приложения не являются тем, как должно выглядеть будущее, но терминал всё же ближе.
К сожалению, терминалы тоже не лучшая технология. Хотя они лучше альтернативы во многих отношениях, они не смогли угнаться за какими-либо достижениями последних тридцати с лишним лет. Командная строка, конечно, эффективна, но она утомительна. Она устраняет всю двусмысленность, обнажает все скрытые предположения и жестоко наказывает лень и неточность.
Вот некоторые вещи, из которых терминалы могли бы черпать вдохновение:
Насыщенные элементы мультимедиа: изображения, видео, табличные результаты и т. д. Терминалу нужен был ответ на них с 1985 года, но до сих пор его нет.
Шрифты. Моноширинный — лучшее семейство шрифтов для программирования, но объективно не оптимален для чтения. Мы должны иметь возможность смешивать шрифты в одном интерфейсе терминала для лучшей читаемости.
Пробелы и высота строки: используемые в умеренных количествах, они помогают сделать элементы пользовательского интерфейса более отличительными, а текст — более разборчивым.
Терминалам также нужно много других вещей, прежде чем они когда-либо станут приемлемой заменой графического интерфейса для большинства людей. Например, элементы пользовательского интерфейса, которые не построены вокруг символов ASCII.
Нам нужна перезагрузка. Нам нужны наборы инструментов, которые быстры, последовательны, не содержат ошибок и компонуются по умолчанию, чтобы хорошие интерфейсы могли создавать не только лучшие разработчики/дизайнеры в мире, но и могли бы быть разумно ожидаемы даже от начинающих специалистов в отрасли.
Мы должны быть честны с собой и выступить против антишаблонов дизайна, которые продвигают показную роскошь в ущерб эффективности. Мы должны перестать нянчиться с пользователями и попытаться поднять новичков и менее технически подкованных до уровня современных продвинутых пользователей, а не создавать программное обеспечение, разработанное для наименьшего общего знаменателя. Нам нужно больше приложений, которые подталкивают своих пользователей к совершенствованию.
Есть будущее, в котором наше программное обеспечение будет делать всё, от регистрации ошибки до погашения кредитной карты, быстро и эффективно, но путь, по которому мы идём сегодня, — это не он.
ИИ кажется естественным следующим шагом для командной строки. Видя, как ChatGPT и ему подобные захватывают мир, начинаешь задумываться: «что дальше?» Станет ли Интернет одной большой палитрой команд, которая содержит все ответы и выполняет все действия? Остаётся просто надеяться, что никто не введёт format или rm -rf.
Написано специально для Timeweb Cloud и читателей Пикабу. Больше интересных статей и новостей в нашем блоге на Хабре и телеграм-канале.
Хочешь стать автором (или уже состоявшийся автор) и есть, чем интересным поделиться в рамках наших блогов — пиши сюда.
Облачные сервисы Timeweb Cloud — это реферальная ссылка, которая может помочь поддержать авторские проекты.
Приветствую! В этой статье я бы хотел уделить внимание такой вещи как шифрование трафика на Linux системах. Наверное, каждый из нас прекрасно понимает, насколько важна защита нашей приватности. Ведь в эпоху, когда многие компании собирают данные, а иногда хакеры могут перехватить наш трафик, это становится особенно важно. Просто необходимо позаботиться о безопасности своих данных. Например, быть уверенным, что какая-либо корпоративная сеть не прослушивается злоумышленниками. Информационная безопасность сегодня — это не просто мода, а насущная необходимость. Постоянно растет киберпреступность, и защита трафика от перехвата — это основной аспект цифровой жизни человека или бизнеса.
Эта часть - вторая, первую вы можете прочитать по ссылке. А в этой части мы рассмотрим что такое прокси и какие типы бывают, что такое VPN, как устроено сквозное шифрование.
И соответственно, в этой статье не будет упоминаться то, про что я уже писал в первой. Начнем, господа присяжные заседатели!
Прокси-сервер — это промежуток между клиентом и сервером. Он обеспечивает скрытие IP-адреса, поэтому сторонним лицам намного сложнее отследить местоположение пользователя. Также он помогает настроить доступ к сайтам — например, к каким-то ограничить, или даже прослеживать и мониторить трафик пользователей. За счет кеширования данных страницы могут загружаться быстрее.
Прокси-сервер действует так:
Клиент -> провайдер -> прокси-сервер -> сервер
То есть провайдер знает, какой у пользователя IP и какой у него запрос, но сервер не будет знать пользовательский IP-адрес.
Прокси-сервер — это машина, которая содержит прокси IP-адреса.
IP-адрес прокси — это индивидуальный IP-адрес, который используется для сокрытия вашего реального адреса.
Прокси-сервер обрабатывает ваши запросы, но скрывает множество идентифицирующей информации. В ее числе исходный IP-адрес, геолокация, откуда пришел запрос, данные операционной системы (ОС) и многое другое. В общем, он помогает предотвратить легкое отслеживание вас третьими лицами. Работа прокси-сервера осуществляется на уровне приложений модели OSI (L7).
Существует много разных типов прокси, которые подразделяются по разным типам протоколов, анонимности, размещения.
Если говорить про типы размещения — то это банально централизованный и децентрализованный прокси. Тут все понятно — при централизованном типе прокси-сервера находится в одном центре, которые обслуживают сразу много клиентов, а при распределенном — прокси-сервера находятся в разных локациях, которое позволяет равномерно распределить нагрузку, и при случае падении одного сервера, другие прокси сервера останутся рабочими (а в централизованном типе с этим возникнут проблемы).
По анонимности и конфиденциальности уже поинтереснее. Есть прозрачный — никаких настроек, весь трафик с клиента сразу маршрутизируется на прокси. Данные пользователя не изменяются, IP-адрес не скрывается. Быстро, экономно но не безопасно. Противоположность прозрачному — анонимный. Он уже изменяет IP-адрес клиента, но он не скрывает, что используется прокси, и сайты могут понять, что клиент использует прокси, но не больше. Еще более безопасным считаются искажающие прокси — они меняют IP адрес в точности как и анонимный, но уже скрывают факт использования прокси, то есть сервер может понять что трафик идет через дополнительный шлюз, но сам клиент остается скрытый. И последний тип — это приватный. Полностью скрывают данные о пользователе и постоянно меняют IP-адрес подключения.
Ну и перед тем, как мы затронем тему типов прокси по протоколу, стоит также рассказать о том, что прокси также могут различаться и по уровню доступности:
Публичные — открытые, бесплатные, но могут быть медленными, небезопасными и ненадежными. Если найти какой-то сайт с бесплатными прокси-серверами, то там будут именно эти с вероятностью 90%.
Приватные — платные, но быстрее и безопаснее публичных.
Выделенный — то есть уже целый высокопроизводительный сервер с выделенными ресурсами. Они позволяют настроить прокси, то есть например сделать возможность использования только одним клиентом или сделать черный список клиентов.
Прозрачные — мы уже говорили, просто маршрутизация с порта клиента на порт прокси-сервера.
Общие — то есть доступные определенной группе, например сотрудникам компании. Не так надежны как приватные, но обеспечивают баланс между доступностью и производительностью.
Прокси удобны, позволяют контролировать и мониторить трафик, а также могут обеспечить базовую анонимность. Стоит задеть тему различий с VPN:
Прокси это L7, самый высокий уровень сетевой модели OSI, когда как VPN — это L3 или L4.
В VPN могут использовать криптографические алгоритмы для обеспечения шифрования трафика и набор ключей.
Стоимость VPN обычно дороже прокси.
Прокси обычно быстрее VPN
А теперь наконец перейдем к типам прокси по протоколам.
Данный тип прокси работает с HTTP-запросами. В основном для базового серфинга - то есть кеширования страниц, настройки доступа к сайтам. Основное применение он находит в корпоративных сетях, для ограничения сотрудников (самый простой пример — блокировка доступа к социальным сетям).
HTTP-прокси существует как звено в цепи между клиентом и сервером. То есть запрос от клиента идет не напрямую на сайт, а через прокси, который уже от своего имени отправляет запрос серверу.
Тоже самое, что и HTTP, но более безопасный. HTTPS гарантирует безопасное соединение между клиентом и сервером, защищает данные от сниффинга. В основном его используют когда важна безопасность и сохранность данных, а не просто веб-серфинг.
Мы уже обсуждали SSL/TLS протокол выше. Этот тип прокси сервера создает только одно TCP-соединение. В HTTP-proxy создается два соединения — от клиента к прокси и от прокси до сервера. Но SSL работает по другому: после запроса на сервер, прокси создает запрос подключения на сервер и создает TCP-канал.
Преимущество данного типа прокси в том, что его можно использовать как и для доступа к защищенным (HTTPS) и незащищенным (HTTP) серверам.
SOCKS — SOCKets Secure. Специальный протокол для работы с интенсивным трафиком, например потоковая загрузка/передача данных или для P2P.
SOCKS использует TCP соединение, то есть все пакеты гарантированно будут доставлены. При использовании этого типа прокси интернет-трафик маршрутизируется через прокси-сервер по TCP от имени клиента.
SOCKS, как большинство прокси, скрывает IP адрес клиента, гарантируя базовую конфиденциальность.
Здесь я рассмотрю прокси-сервер Squid и как его можно установить за пару шагов.
Squid — это один из самых популярных HTTP/HTTPS прокси-серверов с возможностью перенаправления и кэширования трафика. Он скрывает IP адреса клиентов, кэширует веб-страницы, да и в принципе довольно быстрый прокси...
ЧИТАТЬ ДАЛЕЕ ↩ (без регистрации и СМС)
Материал получился достаточно объемным и все подробности, к сожалению, не влезли :(
Написано специально для Timeweb Cloud и читателей Пикабу. Больше интересных статей и новостей в нашем блоге на Хабре и телеграм-канале.
Хочешь стать автором (или уже состоявшийся автор) и есть, чем интересным поделиться в рамках наших блогов — пиши сюда.
Облачные сервисы Timeweb Cloud — это реферальная ссылка, которая может помочь поддержать авторские проекты.
Автор текста: akibkalo
Сегодня я буду рассказывать кратко о странной версии Windows (рука не поднимается сказать «Windows 11», так как это не совсем правда) – релизе zn_release на базе сборки 10.0.25398.1, на которой выходил лишь Windows Server 23H2 (только Core) и Azure Stack HCI 23H2 (тоже только Core).
Итак, для начала благодарности за данный материал форуму MyDigitalLife, где активно обсуждаются варианты вивисекции ОС Microsoft, и особенно xinso, который тестирует каждую сборку каждого издания на каждом языке и делится своим опытом, пускай и довольно своеобразно. Мастер, спасибо тебе за ценный опыт. Тем, кто не хочет читать целиком, в самом конце статьи дана ссылка на конструктор для сборки. Публикация готовых образов будет пиратством, что правилами запрещено, так что если вам будет интересно просто попробовать эту сборку, ставьте лайк и пишите мне в ПМ, дам готовый образ для установки (русский и английский интерфейсы включены в образ, остальные языки в виде дополнительных языковых пакетов).
Если вы не следите внимательно за выходами Windows 11, и не читали мою статью «Все о версиях Windows 11», то можете быть не в курсе, что официально выходили следующие версии:
Windows 11 21H2 — на базе сборки 10.0.22000.x ядра co_release (Cobalt);
Windows 11 22H2 — на базе сборки 10.0.22621.x ядра ni_release (Nickel);
Windows 11 23H2 — на базе сборки 10.0.22631.x того же ядра ni_release (Nickel);
Windows 11 24H2 — на базе сборки 10.0.26100.x ядра ge_release (Germanium).
Более того, версия 23H2 особо от 22H2 не отличается, имеет то же ядро и общие обновления. По сути, отличие между ними в пакете, включающим малость нового функционала. Вообще обе версии довольно неудачны в плане производительности и не особо популярны у геймеров.
Версия 24H2 на ядре Germanium сборки 10.0.26100.х в продажу пойдет осенью, сейчас доступна OEM производителям и инсайдерам. О ней мы знаем два интересных факта – она быстрее чем та, что на ядре Nickel, и она не работает на старых компьютерах, процессор которых не поддерживает SSE4.2.
В промежутке между ядрами Nickel и Germanium было еще одно ядро Zink, на базе которого выходили Core издания Windows Server 23H2 с номером сборки 10.0.25398.x. Клиентских ОС на базе этого ядра не выпускалось. Однако, внутри корпорации сборки Windows 11 собирались, более того, файлы для изданий Windows 11 доступны с UUPDump (например Microsoft-Windows-EditionPack-Professional-Package.ESD и Microsoft-Windows-EditionSpecific-Professional-Package.ESD). И эти сборки по тестам быстрее чем и Nickel и Germanium, работают на старых процессорах, да и вообще интересны! Дальше я расскажу, как собирать разные издания Windows 11 версии 10.0.25398.x на базе файлов UUPDump, предложу ссылку на загрузку конструктора для самостоятельной сборки, расскажу о разных тонких моментах.
Перед тем как начинать сборку образа заметим, что хотя Microsoft и не выпускала Windows 11 на базе ядра Zink, в списке изданий, на которые будут ставиться обновления для Windows Server 23H2 по странному стечению обстоятельств входит издание Windows 11 Professional, а значит, и все другие издания на его базе, переключение на которые достижимо сменой серийного номера: Professional Workstation, Enterprise, IoT Enterprise (рекомендую его, там разрешены две RDP сессии без патчей) и другие.
Список тех ОС, которые согласно языку Microsoft попадают под assemblyIdentity name="microsoft-windows-professionaledition", на которые можно будет ставить обновления без их модификации можно увидеть так:
Если в процессе реконструкции Windows 11 на этом ядре вы выберете другое издание, то обновления придётся вручную модифицировать перед установкой. Пример модифицированных обновлений есть в конструкторе в папках 25398.950 и 25398.1009.
Есть, однако, еще один нюанс. Microsoft выкладывает все системные файлы для сборки изданий Windows 11 (в том числе и Evaluation, EnterpriseG, все кроме LTSC), однако, не предлагает языковых пакетов для клиентских ОС.
Языковые пакеты для серверных ОС, разумеется, присутствуют (всё же это издание Windows Server):
А вот клиентских пакетов, увы нет. И создать без них Windows 11 невозможно. Однако, ура, ура, разные сборки в пределах ядра не сильно отличаются друг от друга, и мы можем взять клиентский языковой пакет от сборки 10.0.25393.1 доступной на UUPDump:
Слегка модифицировав MUM файлы языкового пакета 25393.1 мы заставим его работать с ядром 25398.1. Все модифицированные языковые пакеты доступны по ссылке на конструктор, данной выше в файле 25398 languagepacks.zip.
Увы, Microsoft, выпуская обновления для Windows Server 23H2 хотя в них и включает возможность установки на Windows 11, но вспоминает лишь английские версии ОС. Если вы соберете русскую версию ОС, установка обновлений зачастую заканчивается неудачно, приходится пользоваться модифицированными обновлениями.
Предлагаемый в конструкторе скрипт 25398.1_Neutral_to_Client_amd64_38in1_26100_License может создать любое издание (в том числе EnterpriseG или LTSC) на любом языке, но я рекомендую при сборке остановиться на английском языке и издании Professional или Enterprise (что делается редактированием файла Create.cmd). Для создания английской версии следует скопировать английский языковой пакет Microsoft-Windows-Client-LanguagePack-Package-amd64-en-us.esd в папку files\lang, скачать языковые пакеты в langFeature\en-us по аналогии с fr-fr и языковые пакеты Features on Demand в FOD\en-us (список для каждого языка есть в файле FOD-Lang.txt).
Рекомендованные мной настройки (модифицируйте файл Create.cmd): TARGET=Enterprise, LANG=en-US, EDGE=without (доставите потом последний вручную), NETFX3=without (будет проще если доставите после). В целом, скрипт может установить и LTSC (TARGET=EnterpriseS), и EnterpriseG и даже Starter. На любом языке. Но только для русского, английского и французского я положил скачанные с UUP файлы. Для других следует положить аналогично и изменить в файле Create.cmd параметр LANG. C .NET Framework я разобрался, в том числе и русифицированной ОС, в образах интегрированы следующие версии (более новое ставится штатно поверх):
Я не буду долго дискутировать о процессе, сам скрипт работает более часа на быстром диске, создавая install.wim. Если вам необходим загрузочный ISO образ, то install.wim следует поместить вместо одноименного от Windows Server 23H2 и пересобрать образ. В моем случае скриптом я создал Windows 11 Professional.
Дальше я могу легко сменить издание на Enterprise, просто заменив серийный номер (файлы лицензии в конструкторе взяты от Windows 10 21H2). И могу спокойно установить обновления. Через Windows Update кумулятивные обновления могут не засекаться, однако, если зайти на UUPDump, то можно скачать и установить. На данный момент последнее обновление 25398.1085. На издание Enterprise обновление ставится онлайн без проблем:
Далее я добавлю русский язык интерфейса, установив модифицированный языковой пакет. У меня не вышло сделать это онлайн, пришлось загрузиться с установочного образа и добавить его оффлайн, и для тех кто не будет самостоятельно собирать образ, а скачает мой, интегрировал в образ. Для того чтобы изменить все региональные настройки (включая язык интерфейса) на русский, воспользовался тем же dism с ключом /SetAllIntl:ru-RU. Вуаля:
После обновления до LCU 25398.1085 вижу установленных два обновления – SSU и LCU, которые были в одном MSU пакете Windows11.0-KB5041573-x64.msu выпушенном 13.08.2024. Пакет без модификаций.
Обращу внимание сразу на то, что в кумулятивных обновлениях Microsoft обновляет лишь английский языковой пакет. Если вы поставили любой другой язык, после обновления в Журнале событий пойдут предупреждения о ненайденных языковых пакетах, и система будет переключаться на английский по обновленным пакетам (в первую очередь панель Настройки), для русской версии следует оставаться на 25398.1 или использовать кастом обновления.
Да, это поделка на коленке, её можно и нужно допиливать, что-то может не работать. Например, я не мастер локализации интерфейса, и возможно не включил в образ какие-то штатные компоненты, ответственные за русский язык, - нужно внимательно изучить, возможно, следует несколько модифицировать порядок шагов русификации, я не эксперт по локализации образов, сам всегда пользуюсь англоязычным. Опциональные компоненты ОС не ставятся онлайн, если нужно включить какую-то компоненту, придется делать это оффлайн из Dism. Неудобно. Возможно, кто-то это допилит. Моя задача была показать принцип, дать конструктор желающим.
Согласно отчетам на форуме MDL, многие китайские геймеры, использующие Windows, выбирают именно эту сборку. И в ряде тестов она обходит все остальные. Буду рад услышать комментарии от тех, кто протестирует.
Подписывайтесь, ставьте лайк, запрос за образами в ПМ, и пишите комментарии, чего отдельно хотели бы увидеть в следующих статьях по разным поделкам Microsoft!
Написано специально для Timeweb Cloud и читателей Пикабу. Больше интересных статей и новостей в нашем блоге на Хабре и телеграм-канале.
Хочешь стать автором (или уже состоявшийся автор) и есть, чем интересным поделиться в рамках наших блогов — пиши сюда.
Облачные сервисы Timeweb Cloud — это реферальная ссылка, которая может помочь поддержать авторские проекты.
Автор текста: CyberexTech
Привет, Пикабу!
В этой статье я хочу описать свой опыт разработки такого простого, но в тоже время самого используемого элемента «Умного дома». Речь пойдет о модуле управления освещением. Забегая вперед, хочу сказать, что данный проект был реализован еще в 2021 году, но в настоящее время потребовалась реализация еще одного модуля. Я решил совместить приятное с полезным, дополнительно обновить прошивку устройства и «перепроектировать» данный модуль с помощью современного ПО и само собой — поделиться с вами. Если стало интересно, то добро пожаловать под кат.
Домашней автоматизацией я занимаюсь давно и застал те времена, когда еще не было доступных микроконтроллеров с беспроводной коммуникацией на борту (типа ESP8266), в основном использовались проводные решения на базе 1-Wire. И мой «Умный дом» не стал исключением.
Каждый начинающий «строитель» «Умного дома» понимает, что первым делом нужно научиться включать и выключать свет, чтобы эффектно удивлять друзей, управляя освещением со смартфона. В те времена это казалось магией :) Вот и я, закупившись на Алиэкспрессе поддельными двухканальными 1- Wire свичами DS2413P, решил реализовать управление светом. В итоге была собрана плата управления на базе купленных свичей и симисторным управлением нагрузкой. Данное устройство надежно проработало аж до 2021 года. Но летом того же года была жуткая гроза и по витой паре интернет провайдера прилетел мощный разряд, который унес в электронный рай сетевую карту сервера, USB 1-Wire адаптер, ну и плату управления освещением с эффектным взрывом симистора. Тогда я подумал, что пора завязывать с проводными решениями ибо гирлянда сгоревших устройств ни на секунду меня не радовала и я принялся за разработку беспроводного модуля управления освещением.
Условно мы можем разделить модуль на три сегмента:
Система питания;
Контроллер управления;
Система силового управления.
При проектировании принципиальной схемы устройства будем придерживаться «золотого» принципа: чем проще — тем лучше, а значит — надежнее. Поэтому в качестве системы питания будет реализована схема на базе экономичного импульсного преобразователя напряжения LNK306GN, который доказал свою надежность временем и работой в аномальных условиях.
Краткая информация о LNK306GN:
LNK306GN — это понижающий преобразователь с наименьшим количеством внешних элементов.
Серия микросхем LinkSwitch-TN специально разработана для замены всех неизолированных источников питания с линейным питанием и питанием от конденсаторов в диапазоне выходного тока менее 360 мА при равной стоимости системы, обеспечивая гораздо более высокую производительность и энергоэффективность.
Устройства LinkSwitch-TN объединяют в монолитной IC силовой полевой МОП-транзистор с напряжением до 700 В, генератор, простую схему управления включением/выключением, высоковольтный импульсный источник тока, генератор частот, схему ограничения тока и схему отключения при перегреве.
В качестве «мозга» нашего устройства, будем использовать микроконтроллер от компании Espressif Systems ESP8266. А для силового управления нагрузкой, то есть нашими лампочками, будем использовать связку оптопары MOC3052M и симистора BT136-600. Почему не реле? — спросите вы, ну не люблю я реле, они щелкают и габаритные. Ниже можно видеть результат разработки принципиальной схемы устройства. Для разработки схем и печатных плат я использую открытое ПО KiCAD.
Принципиальная схема модуля:
Как я уже говорил ранее, источник питания реализован на высоковольтном импульсном преобразователе LNK306GN, который позволяет максимально упростить схему источника питания. На выходе источника формируется напряжение в 3,3 В, данное напряжение устанавливается обратной связью, которая организована с помощью резистивного делителя напряжения R4 и R5. Данная схема питания не имеет гальванической развязки с сетью, поэтому нужно обеспечить эффективную изоляцию платы для исключения поражения электрическим током. Первоначальный запуск устройства должен выполняться с последовательно подключенной нагрузкой (лампа накаливания 60 Вт) в цепи питания, чтобы исключить повреждения в случае ошибки при монтаже компонентов.
Трассировка платы:
Визуализация печатной платы:
Хочется добавить, что данная плата разрабатывалась с учетом современных реалий, здесь изменен форм-фактор микросхемы LNK306GN на SOP-7 в старой версии модуля используется тип корпуса DIP-7.
На тот момент, плата изготавливалась по канонам DIY, с помощью фоторезиста и фотошаблона. Но в настоящее время я пользуюсь для изготовления прототипов плат лазерным методом.
Активация фоторезиста с помощью фотошаблона:
Плата прототипа модуля после монтажа электронных компонентов:
Разработка корпуса устройства выполнялось в открытом ПОFreeCAD. Корпус довольно тривиальный и не содержит сложных элементов.
Визуализация корпуса с моделью платы:
Далее модель корпуса распечатывается на 3D принтере, в качестве материала печати используется HIPS пластик.
Устройство в собранном виде:
AirTag для сравнения габаритов устройства:
Разработка микро ПО устройства велась в средеArduino IDE, обновленная версия реализована на моей, ставшей уже базовой, прошивке для умный устройств. Для улучшения пользовательского опыта, в прошивке применены следующие технологии:
Captive portal;
Multicast DNS;
MQTT Auto Discovery;
SSDP.
Captive portal— это сервис, на который принудительно перенаправляется пользователь, который выполнил подключение к устройству. Данный сервис работает только в режиме «точки доступа» при первоначальной конфигурации устройства. При отсутствии сетевого соединения или при первоначальной настройке, устройство создает беспарольную точку доступа с именемCYBEREX-Light. При подключении к данной точке доступа, пользователь автоматически будет перенаправлен на страницу авторизации для выполнения первоначальной конфигурации устройства. Для конфигурации устройства необходимо ввести пароль по умолчанию "admin".
Ниже приведены несколько скриншотов веб интерфейса устройства.
Страница входа:
Главная страница с элементами управления:
Конфигурация обмена по MQTT протоколу:
Multicast DNS — данный сервис используется для поиска устройств по доменному имени в локальной сети без использования предварительно настроенного DNS сервера. Другими словами, пользователь может получать доступ к устройству без необходимости ввода IP адреса. Ниже пример использования данного сервиса, где доступ к устройству выполняется с помощью его локального имени 11395386.local.
Страница конфигурации управления устройством через API:
Как вы можете видеть на скриншоте, в устройстве реализован доступ управления каналами модуля по API. Данная функция необходима для прямого взаимодействия с устройством без посредников в виде MQTT сервера или системы «Умного дома». Эту функцию можно использовать для подключения беспроводных выключателей, пример реализации в одном из моих проектов:
Демонстрируемый беспроводной выключатель также реализован на ESP8266, в качестве элементов питания использует две батарейки формата ААА. Данный выключатель проработал уже три года на одних элементах питания, благодаря режиму DeepSleep.
А еще функция данного API применяется в моей «умной колонке» (статья первая,статья вторая) для управления освещением. Ниже пример кода для реализации прямого управления с помощью «умной колонки»:
Код управления по API | Python:
elif cmd == 'lightON':
try:
contents = urllib.request.urlopen("http://11395386.local/?page=status&apikey=UkFA7").read()
response0 = json.loads(contents)
if response0['c1'] == 'Off1' and response0['c2'] == 'Off2':
text = "Включила свет"
if response0['c1'] == 'On1' and response0['c2'] == 'Off2':
text = "Первый светильник уже включен, включила второй!"
if response0['c1'] == 'Off1' and response0['c2'] == 'On2':
text = "Второй светильник уже включен, включила первый!"
if response0['c1'] == 'On1' and response0['c2'] == 'On2':
text = "Свет уже включен! Но я могу выключить, если попросите!"
if response0['c1'] == 'Off1':
response2 = requests.get('http://11395386.local/?page=control&apikey=UkFA7&switch=1')
if response0['c2'] == 'Off2':
response2 = requests.get('http://11395386.local/?page=control&apikey=UkFA7&switch=2')
tts.va_speak(text)
except:
tts.va_speak("Сожалею, но возникла ошибка, попробуйте позже!")
elif cmd == 'lightOFF':
try:
contents = urllib.request.urlopen("http://11395386.local/?page=status&apikey=UkFA7").read()
response0 = json.loads(contents)
if response0['c1'] == 'Off1' and response0['c2'] == 'Off2':
text = "Свет уже выключен! Но я могу включить, если попросите!"
if response0['c1'] == 'On1' and response0['c2'] == 'Off2':
text = "Второй светильник уже выключен, выключила первый!"
if response0['c1'] == 'Off1' and response0['c2'] == 'On2':
text = "Первый светильник уже выключен, выключила второй!"
if response0['c1'] == 'On1' and response0['c2'] == 'On2':
text = "Выключила свет!"
if response0['c1'] == 'On1':
response2 = requests.get('http://11395386.local/?page=control&apikey=UkFA7&switch=1')
if response0['c2'] == 'On2':
response2 = requests.get('http://11395386.local/?page=control&apikey=UkFA7&switch=2')
tts.va_speak(text)
except:
tts.va_speak("Сожалею, но возникла ошибка, попробуйте позже!")
Интеграция устройства в систему «Умного дома» реализована с помощью MQTT Auto Discovery.
MQTT Auto Discovery— сервис, позволяющий максимально упростить интеграцию нашего устройства в систему «Умного дома». В моем случае, в качестве системы «умного дома», я использую Home Assistant, поэтому сервис MQTT Auto Discovery адаптирован именно под неё. Ниже код реализации MQTT Auto Discovery в микро ПО устройства:
Код реализации MQTT Auto Discovery | С++:
void send_mqtt(String tops, String data, String subscr){
// Анонсируем объекты для Home Assistant [auto-discovery ]
// Анонсируем объекты один раз при успешном подуключении и при запуске устройства
// if(!annonce_mqtt_discovery){
mqqt_d_annonce("CL1", "c1", "On1", "Off1");
mqqt_d_annonce("CL2", "c2", "On2", "Off2");
mqqt_d_annonce("CL3", "c3", "On3", "Off3");
annonce_mqtt_discovery = true;
// }
// Отправляем данные
client.publish(tops.c_str(), data.c_str());
client.subscribe(subscr.c_str());
}
void mqqt_d_annonce(String namec, String cn, String on_d, String off_d){
String top = String(settings.mqtt_topic) +"/jsondata";
String control = String(settings.mqtt_topic) +"/control";
char jsonBuffer[1024] = {0};
DynamicJsonDocument chan1(1024);
chan1["name"] = namec;
chan1["state_topic"] = top;
chan1["command_topic"] = control;
chan1["payload_on"] = on_d;
chan1["payload_off"] = off_d;
chan1["state_value_template"] = "{{ value_json."+cn+" }}";
serializeJson(chan1, jsonBuffer, sizeof(jsonBuffer));
String top_to = "homeassistant/light/"+cn+"/config";
client.publish(top_to.c_str(), jsonBuffer, true);
}
После успешного подключения устройства к сети и настройки MQTT соединения, в «объектах» Home Assistant появятся объекты нашего устройства, пользователю останется только настроить карточку объектов на панели управления, чтобы иметь возможность управлять данным модулем. Ниже приведен пример кода карточки объектов:
Пример кода карточки объектов:
type: horizontal-stack
cards:
- show_name: true
show_icon: true
type: button
tap_action:
action: toggle
entity: light.cl1
name: Свет 1
show_state: true
hold_action:
action: more-info
- show_name: true
show_icon: true
type: button
tap_action:
action: toggle
entity: light.cl2
name: Свет 2
show_state: true
hold_action:
action: more-info
- show_name: true
show_icon: true
type: button
tap_action:
action: toggle
entity: light.cl3
name: LED
show_state: true
hold_action:
action: more-info
В результате карточка объектов будет выглядеть следующим образом:
Осталось упомянуть о последнем сервисе SSDP.
Чтобы как-то «повелевать» всем зоопарком моих умных устройств, был реализован данный сервис.
SSDP (Simple Service Discovery Protocol) — сетевой протокол, основанный на наборе протоколов Интернета, служащий для объявления и обнаружения сетевых сервисов. SSDP позволяет обнаруживать сервисы, не требуя специальных механизмов статической конфигурации или действий со стороны серверов, таких как DHCP или DNS.
Для моего удобства, я написал мобильное приложение, которое позволяет в три нажатия обнаружить и сконфигурировать устройство без лишних хлопот и похода в роутер. Ниже представлены скриншоты приложения, ссылка на приложение будет размещена в конце статьи.
Приложение для поиска устройств в сети:
Дабы не исключать классическую схему управления освещением с помощью обычного выключателя, который обычно встраивается в стену, в устройстве также реализован вход (J5) для подключения аппаратного выключателя. Данное решение позволяет без дополнительных переделок интегрировать модуль в существующую систему освещения.
Ну что ж, давайте подведем итоги. В итоге у нас получилось простое, но эффективное и относительно компактное устройство для управления освещением, с возможностью работы как в автономном режиме, так и в составе «Умного дома». Данное устройство разрабатывалось, прежде всего, для управления светодиодным освещением, но примененные силовые симисторы позволяют коммутировать осветительную нагрузку до 300Вт на канал, без ощутимого нагрева силовых элементов.
На этом можно и завершить статью. Надеюсь, мой опыт будет вам полезен. Если у вас есть замечания, предложения или вы хотите поделиться подобным опытом, то добро пожаловать в комментарии! Если статья вам понравилась, то поддержите её стрелочной вверх. Всем добра, здоровья и спасибо за внимание!
Ссылки к статье:
Написано специально для Timeweb Cloud и читателей Пикабу. Больше интересных статей и новостей в нашем блоге на Хабре и телеграм-канале.
Хочешь стать автором (или уже состоявшийся автор) и есть, чем интересным поделиться в рамках наших блогов — пиши сюда.
Облачные сервисы Timeweb Cloud — это реферальная ссылка, которая может помочь поддержать авторские проекты.
Автор текста: ProstoKirReal
Приветствую, коллеги! Меня зовут ProstoKirReal, и сегодня я хочу обсудить с вами физический уровень (L1) модели OSI. Понимание этого уровня является основополагающим для всех, кто только начинает свой путь в сетевых технологиях.
Физический уровень (Physical Layer) — это первый и самый низкий уровень модели OSI. Он отвечает за передачу необработанных битов данных по физическим средствам связи, таким как кабели и радиоволны. Этот уровень определяет электрические, механические, процедурные и функциональные характеристики для активации, поддержания и деактивации физических соединений между конечными системами.
Для начала необходимо понять, а что же такое бит данных. Я в первые месяцы работы очень часто путался в понятиях бит и байт.
Бит и байт — это две основные единицы измерения информации в компьютерных системах. Разница между ними заключается в следующем:
Определение: бит (bit) является наименьшей единицей информации в компьютерных системах.
Значение: может принимать одно из двух значений: 0 или 1. Эти значения часто интерпретируются как «включено» или «выключено», «истина» или «ложь».
Использование: используется для представления двоичной информации и операций на уровне аппаратного обеспечения.
Определение: байт (byte) состоит из 8 битов.
Значение: может представлять 256 различных значений (от 0 до 255 в десятичной системе или от 00 до FF в шестнадцатеричной системе).
Использование: широко используется для представления данных, таких как символы в текстовых файлах. Например, каждый символ в стандарте ASCII кодируется одним байтом.
Примерное сравнение:
Бит: 0 или 1
Байт: 8 битов (например, 01101010)
Для запоминания есть старая шутка:
Штирлиц поругался с посетителем бара и вышел с ним 1 на 1. На выходе он увидел 8 человек с битами. «Один байт равно 8 бит», — подумал Штирлиц
Выше я писал о двоичной и шестнадцатеричной системе. А для чего они?
На двоичной системе общаются между собой различные сетевые устройства, компьютеры и т.д.
А что же делать нам обычным людям? Даже простые данные в двоичной системе выглядят очень громоздко.
К примеру предложение «Hello, world!» выглядит как 01001000 01100101 01101100 01101100 01101111 00101100 00100000 01110111 01101111 01110010 01101100 01100100 00100001.
Для повышения читаемости таких массивов данных используют шестнадцатеричную систему. К примеру, предложение «Hello, world!» выглядит как 48 65 6C 6C 6F 2C 20 77 6F 72 6C 64 21.
Уже читабельнее?
То есть 1 бит – 0, 1 байт – 01001000, в 16-ричной 1 байт – 48.
Шестнадцатеричная система счисления — это удобный, компактный и общепринятый способ представления двоичных данных в компьютерных сетях и других областях информатики. Она позволяет инженерам и программистам эффективно работать с данными, обеспечивая при этом легкость преобразования и улучшенную читаемость.
Удобство преобразования: простое преобразование между шестнадцатеричной и двоичной системами.
Краткость записи: значительно более короткие записи по сравнению с двоичной системой.
Повышенная читаемость: легче для восприятия и анализа при работе с низкоуровневыми данными.
Принятость в стандартах: широко используется в сетевых и компьютерных стандартах.
Сложно? Еще немного и доберемся до L1.
Еще одно понятие, которое нам будет необходимо для понимания.
Пакет данных —это набор информации, который передается между устройствами в компьютерных сетях. Он содержит данные, такие как текст, изображения, аудио или видео, и информацию о том, куда и откуда эти данные должны быть отправлены. Пакеты данных играют ключевую роль в передаче информации через сети.
Пакет служит нам для передачи информации от компьютера к компьютеру. Вообще это отдельная тема для разговора, после модели OSI займусь написанием статьи про пакеты данных.
Если вкратце, то данные, которые нам необходимо передать по сети, делятся на несколько частей. Далее к этим данным добавляется специальный заголовок (необходимый для передачи пакетов по сети) и этот пакет с данными передается по сети в виде электрических или световых сигналов.
Итак, про L1 уровень.
За преобразование битов данных на первом уровне отвечают сетевые карточки в компьютерах и серверах, за передачу пакетов по сети используются SFP модули в таких сетевыех устройствах, как коммутаторы, маршрутизаторы и т.д.
Передача битов: Физический уровень определяет способ передачи битов данных по физическому носителю, будь то медные кабели, оптоволоконные кабели или беспроводные каналы.
Медные кабели передают информацию с помощью электрических сигналов, бывают 1G и 10G медные кабели, типа витая пара. Я был удивлен о наличии 10G меди.
Оптоволоконные кабели передают информацию с помощью световых сигналов.
Беспроводные соответственно передают информацию без проводов, по средством радиоволн.
Модуляция и демодуляция: Преобразование цифровых данных в аналоговые сигналы и обратно.
Модуляция и демодуляция — это процессы, используемые для передачи цифровых данных через аналоговые среды, такие как радиоволны, телефонные линии или оптоволоконные кабели. Эти процессы играют ключевую роль в современных коммуникационных системах, включая интернет, мобильные сети и телевидение.
Модуляция — это процесс преобразования цифровых данных (битов) в аналоговые сигналы, которые могут быть переданы через аналоговую среду.
Демодуляция — это процесс обратного преобразования аналоговых сигналов в цифровые данные. Демодулятор принимает модулированный аналоговый сигнал и извлекает из него оригинальные цифровые данные.
Эффективная передача данных: модуляция позволяет передавать цифровые данные через аналоговые среды, такие как телефонные линии и радиоволны, которые имеют ограниченную пропускную способность и подвержены шуму.
Совместимость: благодаря модуляции цифровые системы могут быть совместимы с существующей аналоговой инфраструктурой.
Устойчивость к помехам: различные методы модуляции могут быть более устойчивы к различным типам помех и шумов, что улучшает качество передачи данных.
Повышение пропускной способности: использование сложных методов модуляции, таких как QAM, позволяет передавать больше данных за один цикл, что увеличивает общую пропускную способность канала связи.
Модуляция и демодуляция — это ключевые процессы, которые позволяют передавать цифровые данные через аналоговые среды, обеспечивая эффективную, надежную и высокоскоростную связь.
Электрические характеристики: определение напряжений, токов и частот, используемых для передачи данных.
Напряжение определяет разницу потенциалов между двумя точками сети. В сетях передачи данных, например, в Ethernet, используются различные уровни напряжения для кодирования цифровых данных. Низкое напряжение может быть интерпретировано как бит «0», а высокое — как бит «1».
Ток — это поток заряженных частиц через проводник. В сетях передачи данных, таких как Ethernet, ток используется для переноса информации. Изменения в токе могут интерпретироваться как изменения битовых значений данных. Потребляемый ток также определяется сопротивлением проводников и устройств, через которые проходят данные.
Частота определяет скорость, с которой данные передаются через сеть. В сетях Ethernet и других сетях передачи данных частота определяет скорость передачи данных, измеряемую в битах в секунду (бит/с). Например, Ethernet может иметь частоту 100 МГц или 1 ГГц, что определяет максимальную скорость передачи данных по сети.
Механические характеристики: определение физического соединения, разъемов и кабелей.
Физическое соединение (Physical Connection): — это способ, которым устройства в сети физически соединяются друг с другом. Физическое соединение может включать в себя различные типы кабелей, разъемов и портов. Например, в локальных сетях (LAN) устройства часто соединяются с помощью кабелей Ethernet.
Разъемы (Connectors): — это физические интерфейсы, которые позволяют подключать кабели к сетевым устройствам. Существует множество типов разъемов, каждый из которых предназначен для определенных типов кабелей и протоколов. Например:
RJ45: используется для подключения витой пары Ethernet.
LC/SC: используются в оптоволоконных сетях.
Разъемы обеспечивают надежное и стандартизированное подключение, которое гарантирует совместимость устройств.
Кабели (Cables): — это физические носители, по которым передаются данные. Тип кабеля определяет скорость передачи данных, расстояние, на которое данные могут быть переданы, и среду, в которой кабель может использоваться. Основные типы кабелей включают:
Витая пара (Twisted Pair): наиболее распространенный тип кабеля для локальных сетей. Включает неэкранированную витую пару (UTP) и экранированную витую пару (STP).
Оптоволоконный кабель (Fiber Optic Cable): используется для высокоскоростных соединений на большие расстояния. Передает данные с помощью световых импульсов.
Каждый тип кабеля имеет свои характеристики, такие как пропускная способность, устойчивость к помехам и максимальное расстояние передачи.
Разъем RJ45: используется для подключения кабелей Ethernet к сетевым устройствам, таким как маршрутизаторы, коммутаторы и сетевые карты.
Оптоволокно с разъемами LC/SC: используется как для высокоскоростных магистральных соединений и соединений на большие расстояния, так и на небольшие расстояния (как разъемы RJ).
Механические характеристики важны для обеспечения надежного и эффективного соединения между устройствами в сети. Они влияют на:
Совместимость: использование стандартизированных разъемов и кабелей гарантирует, что устройства могут быть подключены и будут работать вместе.
Производительность: тип и качество кабелей и разъемов могут влиять на скорость передачи данных и стабильность соединения.
Устойчивость к помехам: экранированные кабели и правильные разъемы могут снижать воздействие электромагнитных помех и улучшать качество связи.
Физическая защита и долговечность: надежные разъемы и кабели обеспечивают долговечность и надежность физического соединения, что особенно важно в промышленных и коммерческих сетях.
Физическая топология: определение расположения и соединения сетевых устройств.
Физическая топология сети определяет физическое расположение и соединение сетевых устройств, таких как компьютеры, маршрутизаторы, коммутаторы и кабели. Это важный аспект проектирования и управления сетью, поскольку он влияет на производительность, масштабируемость, надежность и управляемость сети.
Давайте рассмотрим основные типы физической топологии и их характеристики.
В этой топологии все устройства подключены к одному общему кабелю (шине). Передача данных осуществляется по этому кабелю, и все устройства могут получать эти данные.
Преимущества:
Простота установки и низкая стоимость.
Легкость добавления новых устройств.
Недостатки:
Ограниченная длина кабеля и количество подключаемых устройств.
Поломка кабеля приводит к выходу всей сети из строя.
Низкая производительность при большом количестве устройств.
Все устройства подключены к центральному узлу (коммутатору или концентратору). Центральный узел управляет передачей данных между устройствами.
Преимущества:
Высокая производительность, так как данные передаются через центральный узел.
Простота управления и обнаружения неисправностей.
Поломка одного устройства или кабеля не влияет на работу всей сети.
Недостатки:
Зависимость от центрального узла: если он выходит из строя, вся сеть перестает работать.
Более высокая стоимость из-за необходимости в центральном узле и большем количестве кабелей.
Устройства соединены в кольцо, и каждый узел связан с двумя соседними узлами. Данные передаются по кольцу от одного устройства к другому.
Преимущества:
Равномерное распределение нагрузки между узлами.
Отсутствие коллизий при передаче данных.
Недостатки:
Поломка одного устройства или кабеля нарушает работу всей сети.
Сложность добавления новых устройств.
В этой топологии каждое устройство подключено ко всем другим устройствам. Существует полносвязная ячеистая топология, где все устройства напрямую соединены друг с другом, и частичная ячеистая топология, где некоторые устройства соединены не напрямую.
Преимущества:
Высокая надежность: сбой одного устройства или кабеля не влияет на работу всей сети.
Высокая производительность и минимальная задержка.
Недостатки:
Высокая стоимость и сложность установки.
Сложность управления и обслуживания.
Комбинация звездной и шинной топологий. Устройства соединены в группы, которые, в свою очередь, соединены центральными узлами.
Преимущества:
Иерархическая структура упрощает управление.
Легкость масштабирования сети.
Недостатки:
Зависимость от центральных узлов.
Более сложная установка по сравнению с простой звездной топологией.
Производительность: различные топологии предлагают разные уровни производительности и могут справляться с разными объемами трафика.
Надежность: топология влияет на устойчивость сети к сбоям. Некоторые топологии более устойчивы к поломкам отдельных устройств или кабелей.
Масштабируемость: разные топологии по-разному справляются с добавлением новых устройств и расширением сети.
Управляемость: некоторые топологии проще в управлении и диагностике неисправностей.
Стоимость: стоимость установки и обслуживания сети зависит от выбранной топологии, так как разные топологии требуют разного количества кабелей и оборудования.
Физическая топология сети играет ключевую роль в проектировании, управлении и обслуживании сетевых систем, обеспечивая оптимальную производительность и надежность.
Кабели и разъемы: RJ45, оптоволоконные кабели, коаксиальные кабели.
Электрические характеристики: RS-232, V.35, 100BASE-TX, 10BASE-T.
Беспроводные стандарты: 802.11 (Wi-Fi), Bluetooth.
RS-232: стандарт для последовательного обмена данными. (это не разъем как обычно считают, DE-9 это разъем, а RS-232 это стандарт)
V.34: стандарт для модемов, который определяет методы модуляции для передачи данных по телефонным линиям со скоростью до 33.6 Кбит/с.
100BASE-TX: стандарт для передачи данных по витой паре на скорости 100 Мбит/с.
802.11: набор стандартов для беспроводных сетей.
На практике физический уровень используется для создания и поддержания физических соединений между сетевыми устройствами. Например, когда вы подключаете компьютер к маршрутизатору с помощью Ethernet-кабеля, вы взаимодействуете с физическим уровнем. Важно понимать, что любые проблемы с кабелями или разъемами на этом уровне могут приводить к сбоям в передаче данных.
Когда сетевой кабель выдергивается, это затрагивает только физический уровень сетевой модели OSI, но как это влияет на работу протоколов TCP/IP?
Физический уровень отвечает за передачу данных по физической среде, такой как медный кабель или оптоволокно. Когда сетевой кабель отключается, устройства на этом уровне теряют способность передавать сигналы. Этот уровень может распознать, что кабель выдернут, так как электрический или оптический сигнал больше не поступает.
Канальный уровень взаимодействует непосредственно с физическим и управляет доступом к среде передачи данных, обнаружением ошибок и управлением потоком. При отключении кабеля сетевой интерфейс, например, Ethernet, сигнализирует об ошибке, такой как «link down». Это событие фиксируется на этом уровне, но не обязательно передается выше.
Протоколы стека TCP/IP (такие как TCP, UDP, IP) работают на более высоких уровнях и не имеют прямого доступа к информации о физическом состоянии соединения. Они оперируют виртуальными представлениями сети, предоставляемыми нижележащими уровнями. Поэтому, когда кабель отключается, TCP/IP не узнает об этом напрямую, если информация о разрыве соединения не передается с более низких уровней.
Для того чтобы протоколы верхнего уровня, такие как TCP, могли узнать о разрыве соединения, используются специальные механизмы:
KeepAlive: после установления соединения и при включенной опции KeepAlive, TCP начинает отправлять небольшие контрольные пакеты по истечении определенного времени бездействия. Если определенное количество пакетов KeepAlive не получает ответа, TCP считает соединение недействительным и инициирует его разрыв.
Тайм-ауты: TCP пакеты имеет встроенные механизмы тайм-аутов, которые позволяют определить, что данные не были доставлены в течение определенного времени. В случае тайм-аута TCP предпринимает попытку повторной передачи данных или разрыва соединения.
Когда сетевой кабель отключается, это сначала обнаруживается на физическом и канальном уровнях сети. Однако, если информация об отключении не передается выше, протоколы TCP/IP не узнают об этом напрямую. Для решения этой проблемы в TCP предусмотрены механизмы, такие как KeepAlive и тайм-ауты, которые помогают обнаружить потерю соединения и принять соответствующие меры. Эти механизмы обеспечивают надежность и устойчивость работы сетевых приложений, даже при физических сбоях в сети.
Физический уровень модели OSI является основой для всех остальных уровней. Без надежного физического соединения остальные уровни не смогут выполнять свои функции. Понимание работы физического уровня поможет вам эффективно устранять неисправности и оптимизировать работу сетевых устройств.
В следующей статье мы рассмотрим канальный уровень (L2) и его роль в сетевом взаимодействии.
Спасибо за внимание, и до встречи в следующей статье!
Написано специально для Timeweb Cloud и читателей Пикабу. Больше интересных статей и новостей в нашем блоге на Хабре и телеграм-канале.
Хочешь стать автором (или уже состоявшийся автор) и есть, чем интересным поделиться в рамках наших блогов — пиши сюда.
Облачные сервисы Timeweb Cloud — это реферальная ссылка, которая может помочь поддержать авторские проекты.
Автор текста: georgy_zenker
Прошлая серия эпопеи с производством электросерфов, закончилась на отвратительном слове — «импортозамещение».
Раз уж решили — так было бы логично делать силовую установку в едином модуле: водомет + мотор + контроллер. Меньший объем гораздо проще герметизировать, да и ремонтопригодность выше: поменял спрямляющий аппарат, импеллер или модуль целиком и доска снова в работе.
Конструктивизм наше все и первые модули были опутаны трубками охлаждения и проводами, как кот запутавшийся в клубке ниток.
Сделать по другому не очень получалось, поскольку и мотор и контроллер имели проточные контуры охлаждения.
Прошлые годы опыта чему-то нас все таки научили, и доверившись аксиоме «не сошлось в экселе — в жизни точно не сойдется», было принято решение не продолжать разработку своего контроллера, ибо единичные партии чего-либо сложнее палки никогда не будет дешевле любого серийного варианта.
По итогу перебора разных дендрофекальных изделий на основе VESC была найдена достойная замена: проприетарный влагозащищенный контроллер (IP 67), полностью подходящий по параметрам.
От идеи возведения вокруг него рубашки охлаждения отказались достаточно быстро, т. к. получалось масло масляное, и гораздо логичнее было бы обеспечить прямое охлаждение забортной водой.
Примерно в это же время приехал долгожданный мотор 4-й итерации, сделанный в РФ. По размерам он был немного больше своего младшего брата, и засунуть в доску его удалось не сразу.
Тестов этого мотора лично я ждал почти 1,5 года и по итогу все вернулось на круги своя: при общем весе доски и райдера больше 130 кг — медленно, но верно шел нагрев и в режиме полного газа, через 20 минут мотор сваливался в перегрев.
Сказать что это было фиаско — ничего не сказать: почти 5 лет и 4 попытки построить действительно подходящий двигатель пошли в известном направлении (я уже молчу про деньги).
Но был и план Б — взять погружную версию китайского мотора (который использовали еще на старте эпопеи в 2019 и который перегревался за 5-7 мин (в исполнении с рубашкой охлаждения)), т. е. в итоге должна была получится концепция исключительно на пассивном охлаждении.
Я сам в эту концепцию не очень верил, так как на мой взгляд, что подавать воду через штуцера, что просто утопить половину мотора — равнозначно. О как же я ошибался.
Для тестирования модулей изготовили принципиально другой корпус, с упором под прокаты и гораздо большим водоизмещением.
На первых тестах не удалось нагреть мотор выше 33 градусов (при температуре воды +15).
Когда спустя 2 недели ситуация не изменилась, и даже при весе райдера в 90 кг — температура не росла, у меня было двоякое ощущение: вроде и успех, но ощущения закопанных 5 лет в тупиковую технологию меня вгоняла в ощущения собственной глупости и однобокости мышления. Вы можете сказать: «настоящий инженер бы все посчитал предварительно». Этим я и занимался при проектировании 4-х итераций нашего мотора с около нулевой эффективностью в итоге, а тут несколько тестов все расставил на свои места.
Коли концепция рабочая, надо было финализировать модуль и придать ему законченный и минималистичный вид.
Три раза перекрестившись — еще и подняли ток буста (8 сек) до 300А: не знаю, помог ритуал или погружная конструкция, но все элементы такую нагрузку выдержали, и условный пинок с места получилось обеспечить. Да, это все равно отличается от подрыва бензиновой доски, но уже сильно лучше предыдущей конфигурации
В версии со 108 мм водометом (сейчас 94 мм), надеюсь, получится достигнуть подобного ускорения (пока в разработке).
Да-да, ребра можно и нужно спилить, но делать мы это конечно же не будем, т. к. в соленой воде алюминий без анода гниет очень быстро. В следующие итерациях контроллер будет в исполнении без ребер охлаждения.
Коммерческих надежд на модуль несколько больше, чем на доску, ибо его можно вставить хоть в бревно и оно выйдет на глиссер.
Доски делать не бросаем, но теперь упор больше под прокат, т. к. B2B сектор понятнее и предсказуемее.
История продолжается…
Написано специально для Timeweb Cloud и читателей Пикабу. Больше интересных статей и новостей в нашем блоге на Хабре и телеграм-канале.
Хочешь стать автором (или уже состоявшийся автор) и есть, чем интересным поделиться в рамках наших блогов — пиши сюда.
Облачные сервисы Timeweb Cloud — это реферальная ссылка, которая может помочь поддержать авторские проекты.
Автор текста: akibkalo
Сегодня я начинаю небольшой цикл статей, посвященных операционной системе Microsoft — Azure Stack HCI. Да, именно посвященных ОС, а не решениям Azure, рассматривать я буду именно серверную ОС на базе ядра Windows Server с названием издания Azure Stack HCI, которая вот уже пять лет как ежегодно выходит по программе ежегодного (не долгосрочного) цикла выхода серверных ОС. На данный момент мой план таков:
1) В первой (этой) статье я опишу своё видение того, что такое Azure Stack HCI, чем он отличается от ОС Windows Server Datacenter Azure Edition (Core), что отличает Azure Stack HCI от сервисов Azure Stack, самое главное, для чего вам такая странная ОС в вашем датацентре;
2) Во второй статье я буду рассказывать о том, что такое Hot Patching, — процедура установки обновлений безопасности Microsoft без перезагрузки, какие требования к ОС имеются, — и самое главное, как обойти обязательность наличия подписки Azure, то есть как пользоваться Hot Patching в вашем датацентре без каких-либо Azure Benefits, как создавать виртуальные машины на базе ОС Windows Server и любых её ролей так, чтобы обновления ОС внутри ВМ не требовали их перезагрузки (как вы прекрасно понимаете, обновление хост ОС не требует перезагрузки ВМ в виду живой миграции между узлами кластера). Это весомый аргумент в пользу виртуализации Windows сервисов именно на базе Hyper-V;
3) В третьей статье я расскажу о том, как превратить ОС AzureStackHCI, которая поставляется исключительно в режиме Server Core в ОС с полным рабочим столом, чтобы у вас была возможность полноценно её администрировать. Причем сделать это таким образом, чтобы на ОС все так же продолжали приходить обновления с Windows Update.
Если в комментариях будут предложения дополнительно добавить темы, я открыт к таким предложениям.
Итак, что же такое Azure Stack HCI в 2024 году.
На Хабре есть неплохие статьи об Azure Stack (статья Azure Stack: Немного теории / Хабр (habr.com) от 2017 года) и Azure Stack HCI (статья Что такое Azure Stack HCI и как это работает / Хабр (habr.com) от 2020 года), которые в целом дают понимание о том, что такое службы Azure, в том числе и on-premises. За несколько лет, прошедших с тех публикаций основное отличие заключается в том, что AzureStackHCI теперь это издание ОС на Windows Server, выходящее раз в год, предназначенное для создания гиперконвергентной инфраструктуры на вашем оборудовании. Я очень рекомендую для начала тем, кто совсем не в курсе решения Azure Stack HCI прочитать вышеупомянутую статью корпоративного блога Microsoft, ибо я вообще не буду рассматривать ни аппаратные требования, ни процессы создания кластеров и управления имя, я буду говорить сегодня чисто об операционной системе.
Microsoft говорит, что "AzureStackHCI, — это решение гиперконвергентной инфраструктуры (HCI), в котором размещаются виртуальные машины Windows и Linux или контейнерные рабочие нагрузки и их хранилище. Это гибридный продукт, который подключает локальную систему к Azure для облачных служб, мониторинга и управления." Как и любое другое издание Windows Server, вы можете загрузить Azure Stack HCI с сайта Microsoft. Обращу внимание на то, что сейчас там предлагается загрузить версию 23H2, тогда как уже существует и 24H2, доступная на UUP, о которой я и буду вести речь в этом цикле статей. Версия 24H2 основана на базе ядра germanium, того же, что используется в Windows Server 2025 и Windows 11 24H2. Соответственно, и компоненты и обновления у данных ОС общие.
Обычно, отпугивающим фактором для начинающих администраторов является то, что Azure Stack HCI это всегда Server Core. То есть нет кнопки Пуск, Параметров и иже, нет ни MMC ни панели управления, при старте доступен sconfig, дальнейшее управление локально из командной строки или PowerShell или удаленное средствами Azure Arc и Windows Admin Center:
В Azure Stack HCI 24H2 входят лишь те роли, которые требуются для создания гиперконвергентной инфраструктуры, в первую очередь, Hyper-V и файловый сервер (включая Storage Spaces Direct), а также другие компоненты, такие как поддержка высокой доступности средствами Failover Clustering.
Как вы видите, список ролей невелик (точнее список велик, но это в основном Features). Основных ролей, имеющихся в Server Datacenter Core (обычном или Azure Edition) - таких как ADDS, ADCS, ADFS, DHCP, DNS и далее в нем нет. Но в них нет нужды на узле виртуализации, тем более Core. Вы установите полные версии Windows Server в виртуальных машинах, особенно если будет работать Hot Patching и обновления без перезагрузок.
Azure Stack HCI как ОС купить нельзя, она не лицензируется по узлам или процессорам, в отличии от традиционных решений, предполагается, что вы являетесь подписчиком Azure и будете управлять кластером при помощи Azure Arc или других средств, таким образом монетизируя затраты Microsoft. Раз ОС не лицензируется, то и активации, как класса в ней нет, ничего с ней делать не требуется:
Заводите ОС в домен, подключайтесь удалёнными средствами управления, создавайте кластер, хранилище Storage Spaces Direct, виртуальные машины Hyper-V и используйте без покупки серверных лицензий вообще, если внутри гостевых виртуальных машин у вас ОС Linux или клиентские ОС (например ферма Windows Virtual Desktop). Для лицензирования серверных ОС Microsoft внутри виртуальной среды следует как и ранее покупать лицензии Datacenter по ядрам процессоров ваших узлов виртуализации или устанавливать издания с подпиской (доступно только для Azure Stack HCI). Если потребуется, вы можете использовать встроенную в Hyper-V возможность Automatic Virtual Machine Activation (AVMA) и с AzureStack, для этого потребуется Windows Admin Center и ручная привязка ключей Windows Server Datacenter к узлам Azure Stack HCI. Если ваш AVMA ключ имеет Software Assurance или Subscription, то AVMA сможет активировать и виртуальные машины с Windows Server Azure Edition (те самые, в которых работает Hot Patching).
Не путайте Azure Stack HCI (издание ОС Windows Server) с решением Azure Stack (связка ОС Windows Server, OEM железа от какого-либо вендора-партнера и сервисов). Azure Stack это готовое решение, не всегда на базе Azure Stack HCI (чаще на базе Windows Server Datacenter), которое продаётся предустановленным в виде стойки с серверами, хранилищем, коммутаторами. Azure Stack идёт уже настроенным и готовым, - дорого, менее гибко, сложно обновлять. Azure Stack
Отдельно замечу, для виртуальных машин, работающих в Azure Stack HCI бесплатна доставка расширенных обновлений (ESU). То есть, если у вас в виртуальной машине установлен Windows Server 2012/R2 и SQL Server 2012, вы будете получать Extended Security Updates, которых не получат ОС, установленные на железе или любой другой виртуализации (в том числе и Hyper-V на базе Windows Server Datacenter).
Следующей статьей я расскажу о самой интересной возможности Azure Stack HCI — Hot Patching и поделюсь информацией, как установить данный функционал без покупки подписок Azure (в нашей стране их ведь купить невозможно? :)
А после поговорим о том, как довести до ума Azure Stack HCI, добавив ей полноценный рабочий стол, чтобы было комфортно администрировать, — таким образом можно будет использовать Azure Stack HCI как решение для виртуализации в небольшом офисе, где нет других серверов, нет подписок Azure и знатоков управления Server Core, с возможностью использовать Hot Patching.
Подписывайтесь, ставьте лайк, пишите комментарии, чего отдельно хотели бы увидеть в следующих статьях по Azure Stack и другим поделкам Microsoft!
Написано специально для Timeweb Cloud и читателей Пикабу. Больше интересных статей и новостей в нашем блоге на Хабре и телеграм-канале.
Хочешь стать автором (или уже состоявшийся автор) и есть, чем интересным поделиться в рамках наших блогов — пиши сюда.
Облачные сервисы Timeweb Cloud — это реферальная ссылка, которая может помочь поддержать авторские проекты.
Автор текста: ThePolymer
Однажды компания Kodak украла у Polaroid патенты. Это случилось в 1976 году, когда Kodak представила свою первую мгновенную камеру. Конечно, у конфликта есть предыстория, но Kodak хотели обставить ситуацию не как воровство, а как здоровую конкуренцию. Обе компании – лидеры рынка, а их конкуренция и последующий суд превратились в крупнейший скандал. Суд длился 14 лет!
В этой публикации мы расскажем о конфликте двух корпораций, историю разработки моментальной фотографии, сравним цены и модели фотоаппаратов, а также вы узнаете об удивительной роли кассет VHS и дискет на 3,5 дюйма в этой и без того запутанной истории. За то время, пока шел суд между Kodak и Polaroid, мир успел измениться, и результаты суда получились совершенно неожиданные!
Компания Kodak создала рынок фотографии, когда Джордж Истман в конце XIX-начале XX веков внедрил гибкую фотопленку – именно он придумал делать фотоаппараты не из дерева и латуни, а из картона и кожзама. Фотоаппараты Kodak стали доступны простому человеку за счет снижения цены камеры. В 1900 году самая примитивная камера в мире Kodak Brownie I стоила 1 доллар (около 40 долларов в современных деньгах). В конце XIX века большой фотоаппарат стоил в тысячи раз дороже. Существовавшая в те времена бизнес-модель Kodak сохранилась на весь XX век: фотоаппараты продавались в убыток, чтобы стимулировать продажу пленки. Кстати, пленка Kodak, в отличие от камер, вполне подходит профессиональным фотографам. Другие источники доходов мы тут рассматривать не будем.
Компания создала рынок пленки. Все думают, что фотокамера – это главный товар Kodak, но, на самом деле, камеры продавались в убыток, чтобы продавать больше пленки. Тем не менее, в среднем классе простых и дешевых камер Kodak делали лучшую фототехнику.
Главное, что надо знать о компании Kodak, – это огромная международная корпорация: около 150 тысяч сотрудников и десятки заводов по всему миру. Она была главным мировым поставщиком в области фототехники (исключая только секторы профессиональных и узкоспециализированных фототоваров). Кроме того, компания Kodak производила кинопленку для Голливуда, разные (простые, в основном) кинокамеры, проекторы и даже товары общего потребления. Именно Kodak приучила американцев, что лучший подарок на Рождество – это фотоаппарат.
Компания Polaroid появилась в 1937 году и первые 43 года работала под управлением основателя Эдвина Лэнда. Этот энергичный изобретатель задал компании импульс с технологией поляризации, а в 1947 году он представил миру фотоаппарат, способный сделать фотографию за 1 минуту. Технология работала не без нареканий, но широкую публику поразила в самое сердце. Продажи были успешными. В 1963 году появилась цветная мгновенная фотография. Эдвин Лэнд стал звездой в Америке, а компания Polaroid обрела настоящий успех и приносила выручку в 500 миллионов в год.
Эдвин Лэнд, основатель компании Polaroid, любил проводить презентации на сцене, загадочно зазывая журналистов. Стив Джобс делал также – и теперь вы знаете, у кого он подсмотрел подачу. Эдвин Лэнд был настоящим визионером. Этот человек еще в 1960-х предсказал смартфон!
С 1947 по 1975 года компания прошла эволюцию в технологиях, поколениях камер и покорении умов. Первые два поколения продавались хорошо, на уровне необычного гаджета. Kodak не видели угрозы, ведь тогдашний успех Polaroid – это доля рынка на уровне статистической погрешности (0,5-1,5%). Но когда покупатели привыкли к технологии и вышло третье поколение камер, Polaroid стала международной, узнаваемой наравне с Kodak, а Эдвина знал весь мир наравне с Элвисом, рост Polaroid испугал Kodak.
Неизвестно, когда в Kodak появилась идея влезть на рынок мгновенной фотографии. Да и причины тоже не до конца понятны. Вероятно, они испугались роста сектора мгновенной фотографии и роста выручки Polaroid. Бизнес-модель Polaroid была идентична опыту и модели Kodak: создавать и продавать фотокамеры с минимальной наценкой, а прибыль получать на расходных материалах.
Можно ли было представить в 1970-м году, что весь рынок фотографии перейдет на технологию моментальной фотографии? Это такой же сложный вопрос, как и вопросы вроде – кто в 1980-м году в IBM мог подумать, что микрокомпьютеры могут быть популярны и станут важнее мейнфреймов? Кто мог предсказать, что цифровая фотография уничтожит рынок аналоговой в 1990-м году? А кто в 2005-м мог бы предположить, что смартфоны отберут долю рынка у цифровых фотоаппаратов? Кто в 2010-м верил, что электрические автомобили займут крупную долю рынка в развитых странах через 20 лет?
Обратите внимание на эту иллюстрацию. Повезло найти качественный скан рекламы. Дело в том, что Kodak еще в начале XX века придумали публиковать в рекламе комиксы о простоте использования камер. Polaroid пошли похожим путем в 1950-х. Без комикса или чтения инструкции тут, действительно, не разобраться.
В 1950-60-х Kodak производил для Polaroid запчасти и химию. Очевидно, Kodak видели всю технологию, знали подробности механики и, без сомнений, могли все скопировать. Предвидя такие риски, Эдвин Лэнд хорошо подготовился и получил патенты на все компоненты и идеи, заложенные в Polaroid. Эдвин, кстати, войдет в мировую историю как один из самых плодовитых на патенты изобретателей. Знаете, чем он занимался в 1945-1947 годах? Он старательно и последовательно патентовал все свои разработки, так как потом пришел с ними в тот же Kodak с предложением купить весь проект за огромные (неизвестные нам сегодня) деньги. И тогда Kodak ему отказали.
Модель Polaroid 104 одна из самых массовых в 1970-х и… сегодня! Да, фанаты марки любят эту серию раскладных (термин folding еще с 1900 года живет) камер.
Итак, в компании Kodak решили, что пора бы сделать и собственную мгновенную камеру. Полагаем, что такое решение приняли в середине 1960-х. Несколько лет ушло на разработку в условиях, конечно, полной секретности. Были отлажены все процессы, и Kodak уже готовила продукт для выхода на рынок. И вдруг как гром среди ясного неба в 1972 году компания Polaroid выпустила новый тип расходных материалов, что заставило Kodak отложить старт и начать копировать уже обновленную технологию.
Kodak Instamatic 104 – одна из самых массовых камер 1960-1970-х. Простая, компактная, потом такие в русскоязычном мире называли мыльницы, а в англоговорящем – point-and-shoot camera. Знаете, чем еще примечательна серия Instamatic? Именно в ее честь названо приложение Instagram.
Выход камеры Polaroid SX-70 важен по двум причинам. Во-первых, она обрела культовый статус из-за невероятного дизайна – она раскладывалась, что поражает до сих пор. Во-вторых, в SX-70 использовался новый тип пленки. Об этом чуть ниже.
Эта модель стала настоящим прорывом. Удачная конструкция, отличные характеристики, рекордные продажи. Любой фанат марки начинает коллекцию с этих 4 моделей: Polaroid 95, Polaroid (складная) 200-420, Polaroid SX-70 и Polaroid Spectra.
В истории Polaroid было несколько периодов революционного роста. Самый яркий (1963-1975) связан с тремя новинками: выход цветной фотографии, появление кассет с кадрами (тип) и легендарная камера Polaroid SX-70.
Если посмотреть количество проданных камер, долю рынка и выручку, то Polaroid показывал очень хорошую динамику между 1950 и 1980 годами. Каждый год – плюс 10-20% к выручке, акции тоже росли, но это не столь важно. Важно, что каждая следующая камера приближала Polaroid к Kodak по объемам выручке и доле рынка. Когда в 1965 году вышла камера Polaroid Swinger за 20 долларов, Polaroid стал еще на на шаг ближе к цели. Такие камеры, хоть и выглядели нелепо, (см. рекламный ролик Polaroid Swinger), но стоили очень дешево и продавались отлично.
Сначала мгновенная техника Polaroid занимала 1-2% фоторынка в США. В начале 1960-х уже до 5-7%. Kodak забеспокоился. А вот после трех прорывных событий и бурного периода роста Polaroid, Kodak уже начали нервничать: 1963-1975 годы – выход цветной мгновенной фотографии сильно простимулировал продажи и котировки Polaroid. Тогда же вышли кассеты для снимков и легендарная SX-70. Кроме того, техника Polaroid получила распространение в госструктурах. Оказалось, что при изготовлении пропусков, удостоверений и полицейских магшотов мгновенная фотография – разумный выбор. В итоге Polaroid даже выпустили специальную камеру для документов.
Крупный американский художник Энди Уорхол был большим фанатом марки Polaroid. Он не только везде таскал их камеру с собой, он как бы был неофициальным лицом марки. У Kodak не было ничего похожего: ни амбассадора, ни лица, ни легенды. Точнее лица в рекламе Kodak менялись часто, основатель Kodak, Джордж Истман, остался в истории.
Так, к 1972 году доля Polaroid на рынке США в целом достигала уже 17-20%. Выручка компании в 1960-х превышала 500 миллионов долларов в год, затем рост чуть замедлился и резко ускорился. К 1976 году выручка уже составляла 1 миллиард и неумолимо приближалась к отметке в полтора миллиарда. Так Kodak и осознали, что Polaroid – это уже не средняя фирма с необычным «продуктом», а компания, которая чисто теоретически может вообще поставить крест на старомодной фотопленке.
Но в технологии Polaroid существовало и слабое место – это расходные материалы. Надо уточнить, что было 3 этапа и, соответственно, 3 подхода к передаче изображения на негатив-позитив. Они все по-разному работали, их объединяло только то, что через 30-120 секунд у вас в руках была полностью готовая фотография.
Первый тип материала продавался в рулонах. Рулон заправлялся в камеру и имел два хвоста: для химии и для бумаги. После фотографирования нужно было вытянуть один хвост, в процессе чего оба хвоста соприкасались.
ROLL
Тип 1: многослойная пленка, которая расклеивалась после ожидания, и через пару минут получалась фотография. Пример на видео – Polaroid 95.
PACK
Тип 2: пачка снимков, химии и батарейка в упаковке, которые загружались в камеру. Продаваться начал в 1963 году. После спуска затвора снимок можно было вытащить из камеры или он подавался мотором за 30-60 секунд. Это экономило время, а главное – процесс смены картриджей был гораздо проще.
INTEGRAL
Тип 3: картридж нового поколения, все то же самое (пачка снимков, химия, батарейка). Начало продаж – 1972 год. Но скорость всех этапов значительно возросла. Именно в таком виде и с характерным узнаваемым звуком камеры Polaroid вошли в 1990-е годы.
Итак, Kodak выпустили моментальную фотографию – технология, фотокамеры и расходники. Рекламная кампания была беспрецедентной. Они предложили конечному потребителю фотокамеры по той же цене, что и Polaroid, но вот снимки были немного дешевле. Кроме того, у Kodak сеть продающих партнеров была куда обширнее, чем у Polaroid. Kodak могли потратить на маркетинг в 5, 10 и даже 20 раз больше денег.
Камера Kodamatic в первой версии не имела моторчика, готовый кадр надо “выжимать”, покрутив ручку (см. рекламный ролик). Обратите внимание, Kodak сделали совершенно иной тип корпуса, чтобы не было претензий по патентам в механике и оптике, поэтому у Polaroid готовый снимок почти всегда спереди, у Kodak – сзади. На фото камера ColorBurst, а кассета пленки тут только для масштаба (лучше, чем пачка сигарет).
Первая камера носила название Kodak EK4, или Kodamatic. Моторчика на ней не было, чтобы получить снимок, нужно было крутить ручку. Кстати, камеры мгновенной фотографии всегда были и остаются относительно крупными. Они весили до 5 кг, в разы крупнее обычных камер, поэтому у Polaroid и у Kodak на многие модели устанавливалась крупная рукоятка (что, кстати, было характерно и для 1920-х, когда камера со вспышкой была очень очень громоздкой). Одна из моментальных камер Kodak даже носила имя Handle.
Качество фотографий у Kodak было незначительно выше, чем у Polaroid. В общем, для Polaroid выход Kodak на рынок мгновенной фотографии стал началом конца. Можно было продавать акции и готовиться к падению. Первичная реакция рынка на выход камеры от Kodak: давайте подождем. Потребовалось 3 года, чтобы понять, что камеры от Kodak все-таки хорошо выполняют свою работу, снимки на нее качественные, а цены на расходники лучше, чем у Polaroid.
Активная реклама от Kodak в прессе. Самая яркая была, конечно, на ТВ (пример, видео).
В компании Kodak считали, что они не нарушают патенты Polaroid, так как они «разрабатывали всю химию и механизмы с нуля». Просто поставили цель – готовая фотография за 30-60 секунд. У Polaroid снимок выезжал впереди, у Kodak – сзади. Нет, это, конечно, не главное, это следствие того, что Kodak постарались сделать все не так, как у Polaroid: ориентация линз и механизмов иная, размеры, принцип и последовательность событий. Химические процессы они также изменили, как последовательность и количество слоев в фотобумаге. Kodak уверенно заявляли: у нас камеры работают не так, как у Polaroid.
Fuji занимала доминирующую позицию в Японии и копировала бизнес-модель Kodak. В 1970-х она вышла на рынок США, и началась настоящая война. С одной стороны, Kodak испытали давление и по цене, и по присутствию на рынке, с другой стороны, в 80-х им было даже выгодно, что на рынке есть конкуренты, иначе они казались бы (и являлись по факту) монополистами.
Камера Fujica ST701 вышла в 1970 году и стала одной из самых успешных камер. Благодаря качеству такие японские аппараты получили признание по всему миру, особенно в профессиональной среде.
В 1984 году прошли Олимпийские игры в Лос-Анджелесе. Kodak впервые за 50 лет отказался выступить спонсором национальной сборной (в США государство не помогает спорту, как было принято в некоторых странах, например, в СССР) и возникла забавная коллизия: японская компания Fuji финансировала американскую сборную. В общем, противостояние было жестким, до судов доходило не единожды.
Однако время от времени конкуренты находили возможность и для сотрудничества. Порой весьма необычного. Так, в конце 1970-х Fuji обратилась к Kodak за лицензией на мгновенную фотографию. Polaroid не хотели делиться, они активно проникали на рынок Японии, Европы и Азии еще с 1950-х годов. А Kodak уже получили негативный опыт в Японии, провалившись при попытке выйти на их рынок. Так что Kodak справедливо рассудили, что лучше получить союзника хотя бы на одном из фронтов.
Серия Fuji Fotorama MX800 – главная мгновенная камера от японской компании после 1984 года. И все камеры Fuji работают на технологии, которую лицензирует Kodak.
Роль Fuji была и будет уникальной. Например, в XXI веке только эта компания поймет, что химия для фото-индустрии похожа на химические технологии в косметике и смело зайдет на новый рынок. А в истории войны Polaroid и Kodak японская корпорация также сыграла необычную роль.
Успехи Fuji в сделке с Kodak можно описать так: они выпустили свою версию фотоаппарата на основе технологии и химии от Kodak. Только в Японии. Их позиции усиливались с каждым годом. Но оставалась проблема: как можно продавать что-то, имея лицензию на продукт, по которому прямо сейчас идет судебный процесс?
Помимо конкуренции на мировых рынках и суда с Kodak, внутри Polaroid к 1980 году сформировался другой кризис, который привел к отставке Эдвина Лэнда. Это было результатом трех крупных провалов подряд. Можно сказать, что Лэнд лично виноват как минимум в двух.
В конце 1960-х Polaroid ставила рекорды роста котировок акций, до 125 долларов за 1 акцию в 1969 году. Следующий рекорд был поставлен в 1980-м году: выручка достигла 1,451 миллиарда. В том же году выручка в расчете на 1 акцию – 2,6 доллара. за 40 лет Polaroid произвел 7,5 миллионов фотокамер марки Polaroid Land Camera.
А вот следующие 5 лет будут крайне тяжелыми. Продажи Kodak росли, а у Polaroid падали. С одной стороны, общественное мнение находилось на стороне Polaroid, и Kodak с выходом на рынок инста-фото выглядели как пираты. Но вместе с тем Kodak – в 50 раз крупнее Polaroid. Многие боялись покупать камеры Polaroid, справедливо предполагая, что им осталось недолго, и Kodak в итоге победит.
Polaroid в те же годы потерпели крах и с другим проектом – провалилась технология Polavision. На нее тратили все свободные деньги более 5 лет, но детище Эдвина Лэнда так и не взлетело.
Polavision стал главным провалом компании. Эдвину Лэнду (1909-1991) уже более 70 лет, очевидно, что он промахнулся (а это его проект) и стареет.
Ну и последнее. К 1980 году всем стало понятно, что Kodak выигрывают по цене и качеству фотографий. Судебный процесс шел медленно, начавшись 4 года назад, и Kodak тянули время. Как известно, крупным компаниям выгодно затягивать суды, чтобы измотать противника. Все это привело к падению выручки Polaroid в 81-85 годах на 30%.
На фоне кризиса, который стал очевиден и для сотрудников, и для прессы, генеральный директор Эдвин Лэнд покинул свой пост. Ему было 72 года, и он владел 533 патентами в сфере оптики, химии и механики.
Важный момент: Эдвин Лэнд потерял пост из-за проекта Polavision, а не из-за конкуренции с Kodak. Конечно, он ошибся с этой технологией, однако он был визионером, сформировавшим Стива Джобса и предсказавшим появление смартфонов.
В 1986 году суд постановил остановить продажу товаров по сектору мгновенной фотографии марки Kodak. Kodak нарушил как минимум часть патентов, Kodak 10 лет получал выручку и прибыль незаконно.
Судебный процесс шел с 1976 года. Сторона истца – Polaroid – декларировала нарушение 12 патентов и заявила упущенную прибыль, ущерб репутации и суммарные требования на 12 миллиардов долларов. Сумма, где есть число 12 и 9 нулей – это шокирующие претензии. Мировой рекорд. Как вариант, можно трактовать так: претензия на 1 миллиард – это мировой рекорд, а вот претензии на 12 миллиардов – это буквально сообщение “Мы хотим вашей смерти”!
Камера Kodak Handle, по легенде, получила народное название за боковую ручку. Тяжелая и крупная камера стала самой популярной моментальной камерой от Kodak.
Сразу после решения суда по всем США идет волна возмущения. Магазины в один день снимают все товары мгновенной печати от Kodak. А самый неприятный вопрос, который с этого момента будет задаваться: что же делать тем, кто купил камеру Кодак, если теперь нельзя купить расходные материалы?
Эдвин Лэнд прожил 81 год, создал 533 патента (что делает его одним из самых плодовитых изобретателей в истории). Он умер в 1991 году.
Прошло еще пять лет. Наконец вышло окончательное решение суда: компания Kodak должна выплатить 909 000 000 долларов за нарушение 2 патентов. А также 16 миллионов долларов штрафа, проценты за период суда (скрытая плата за затягивание процесса). Все камеры Kodak могли остаться у покупателей или по соглашению выкупались компанией Kodak.
В 1990-х главной массовой и довольно успешной камерой стала Polaroid Spectra и Polaroid серии 600, они определили то, как воспринималась марка. Кстати, камеры Polaroid серии 600 производилась по лицензии в СССР!
Сумма выплат в $ 925 000 000 – это мировой рекорд. Даже рекордная выплата по суду между Apple и Samsung не дотягивает до рекорда (там было 1.049 миллионов, надо делать поправку на инфляцию, это +30-40% к 925 млн).
Акции и валовая выручка обеих компаний изменились по результатам суда, но не катастрофически. Polaroid с 1986 года вышла из кризиса, тем более, в начале 1990-х они выпустили ряд новых камер. А акции Kodak упали в 1991 году приблизительно на 25%, что тоже нельзя назвать катастрофой.
Компания Fuji по логике должна была получить какие-то претензии от Polaroid, ведь они использовали некоторые патенты по соглашению с Kodak. В Polaroid знали, что смогут прижать Fuji и по соглашению провели обмен: Polaroid получили от Fuji технологии и права на продажу нескольких товарных групп в секторе магнитных носителей. Прежде всего, это видеокассеты типа VHS и дискеты 3,5 дюйма. То было крайне удачное решение для Polaroid, ведь в 1990-х дискеты и видеокассеты приносили заметную часть выручки на американском рынке.
Polaroid получили от японской компании лицензию на производство и продажу магнитных носителей: дискет и VHS кассет.
Компания Fuji успешнее всех вышла из кризиса цифровой революции. Они, в отличие от Polaroid и Kodak, позакрывали фабрики еще в середине 2000-х и куда более решительно вкладывались в новые рынки. Сегодня, спустя 25 лет совершенствования технологии, компания очень успешно продает камеры с принтером серии Fuji Instax. Более того, классические пленки и картриджи для Polaroid компания также до сих пор выпускает именно Fuji!
Суд стал самым крупным в истории противостояний крупных компаний. Формально, конечно, самый большой суд – это Apple vs Samsung, но без поправки на инфляцию.
Когда пыль рассеялась, выяснилось, что пока длились судебные распри между Polaroid и Kodak, началась цифровая революция. Мир изменился. Вместо того, чтобы искать новые рынки и технологии, развивать уже готовые идеи, они искали развитие через войну. Обе компании не сильно поумнели впоследствии и ушли в банкротство в XXI веке. Меньше всех пострадала компания Fuji, она умела договариваться, а значит, смогла найти решение в истории с авторскими правами, а в XXI веке активно диверсифицировала бизнес (например, начали косметический проект).
Также обращаю внимание на то обстоятельство, что обе компании совершили по одной очень большой ошибке, помимо неспособности увидеть цифровое будущее. В Kodak в 1982 году запустили проект Kodak Disc Film, который был красиво подан, разрекламирован и выведен на рынок. И по очевидным причинам провалился. А про проект Polavision, который был создан Эдвином Лэндом, я уже написал выше. Эти истории показывают, как крупные и, казалось бы, сильные компании способны допускать одну фатальную ошибку за другой.
Написано специально для Timeweb Cloud и читателей Пикабу. Больше интересных статей и новостей в нашем блоге на Хабре и телеграм-канале.
Хочешь стать автором (или уже состоявшийся автор) и есть, чем интересным поделиться в рамках наших блогов — пиши сюда.
Облачные сервисы Timeweb Cloud — это реферальная ссылка, которая может помочь поддержать авторские проекты.