Сообщество - Информационные Технологии

Информационные Технологии

92 поста 809 подписчиков

Популярные теги в сообществе:

10

Локальное развертывание сетей 5G с помощью дронов

Локальное развертывание сетей 5G с помощью дронов 5G, IT, Связь, Длиннопост

Компания AT&T опробовала возможность оперативного развертывания сети 5G посредством дронов. Аппарат, получивший названия 5G Flying COW (Cell on Wings или “летающая корова”) впервые предоставил доступ к сети пятого поколения.

Уже в первом тестовом полете дрон, поднявшись на высоту 90 метров смог покрыть радиодоступом площадь около 16 квадратных километров. Устройство использовалось, как сотовый узел связи и подключалось к спутнику, обеспечивая скорость передачи данных в режиме download – 46 Мбит/с и upload – 71 Мбит/с. Это означает, что клиенты с телефонами 5G в местах развертывания летающей базовой станции могут подключиться к скоростному каналу за считанные секунды.

Локальное развертывание сетей 5G с помощью дронов 5G, IT, Связь, Длиннопост

Испытательный полет 5G Flying COW в Миссури

AT&T уже много лет использует данную технологию для создания LTE-покрытия во время массовых мероприятий, например, таких, как суперкубок по футболу. Но есть и другие применения дронов:
- Предоставление связи службам быстрого реагирования в районах стихийных бедствий, а также бригадам, участвующим в поисково-спасательных операциях;

- Организация широкополосной связи в удаленных районах с низкой плотностью населения;

- Геолокация.

Локальное развертывание сетей 5G с помощью дронов 5G, IT, Связь, Длиннопост

Предыдущее поколение дронов, организующих сети 4G

Отметим также, что существуют альтернативные способы “подвеса” базовых станций на так называемых высотных платформах (High-Altitude Platform Station – HAPS) с помощью дирижаблей и аэростатов.

Локальное развертывание сетей 5G с помощью дронов 5G, IT, Связь, Длиннопост

Еще несколько замечаний. Пилоты дронов осуществляют управление за пределами прямой видимости устройств (Beyond Visual Line of Sight – BVLOS) и из любой точки мира, что существенно расширяет потенциальную сферу применения данной технологии.

Сейчас компания работает на тем, чтобы аппарат мог автономно летать без привязи наземного кабеля, без необходимости посадки, используя для питания лишь солнечную энергию. В этом случае применений дронам может быть гораздо больше. Например, экстренное предоставление дополнительного резервного канала связи на территории какого-либо объекта, будь то площадка для проведения массовых мероприятий, бизнес-центр, промышленное предприятие или ЦОД. То есть там, где требуется “скорая телекоммуникационная помощь”, способная создать скоростной канал связи в течение нескольких минут с момента обращения.

=== 

Источники: AT&T, DCD, CNet

Материал подготовлен дата-центром и веб-студией ITSOFT

Показать полностью 4
8

Как создать vps сервер

Раньше был vps сервер на oracle, always free, ubuntu. Сейчас учетную запись отключили. Где теперь можно создать свой личный бесплатный vps, чтобы на нем поднять, например, vpn?

8

Рекорд скорости передачи данных: 1,02 петабит в секунду по оптоволокну стандартного диаметра

Рекорд скорости передачи данных: 1,02 петабит в секунду по оптоволокну стандартного диаметра Оптоволокно, IT, Технологии, Длиннопост

Ученые из японского Национального института информационных и телекоммуникационных технологий (NICT) установили новый рекорд скорости передачи данных – 1,02 петабит в секунду. Причем эта скорость была достигнута с использованием оптоволоконных кабелей, совместимых с существующей инфраструктурой.


Для справки. 1 петабит/с равен миллиону гигабит/с и в 100 тысяч раз больше, чем самая высокая скорость домашнего интернета. Даже НАСА в 2023 году получит «всего» 100-400 Гбит/с, когда будет построена сеть ESnet6. По словам разработчиков, при скорости 1 Пбит/с теоретически можно транслировать 10 миллионов каналов видео с разрешением 8K. И еще одно уже приводимое ранее сравнение – скачивание 3 миллионов оцифрованных томов Российской Государственной Библиотеки, занимающих 162 терабайта данных при такой скорости займет менее 1,5 секунд.

Рекорд скорости передачи данных: 1,02 петабит в секунду по оптоволокну стандартного диаметра Оптоволокно, IT, Технологии, Длиннопост

Рекорд был установлен с использованием нескольких технологий. Например, оптическое волокно содержало 4 канала вместо одного. Далее, за счет развития технологии мультиплексирования (WDM) полоса пропускания увеличена до рекордных 20 ТГц (другие технологии раскроем ниже).


Дело в том, что пропускная способность стандартного одножильного одномодового волокна, используемого в настоящее время для систем оптической связи имеет ограничение по пропускной способности примерно в 250-300 терабит в секунду. Для решения этой проблемы были проведены исследования с многожильными и многомодовыми волокнами.

Рекорд скорости передачи данных: 1,02 петабит в секунду по оптоволокну стандартного диаметра Оптоволокно, IT, Технологии, Длиннопост

Как можно заметить, это не первый раз, когда ученые NICT превышают рубеж в 1 Пбит/с. В декабре 2020 года команда сообщила о рекорде 1,01 Пбит/с при использовании одноволоконного кабеля и передачей данных, “закодированных” в 15 режимах. Но каким бы впечатляющим ни был этот шаг, для их расшифровки потребовалась сложная обработка сигнала, что означает использование специального оборудования и затрудняет применение технологии на практике.


Новый скоростной прорыв не только быстрее, но и позволяет передавать данные только в одном режиме, т.е. они могут быть прочитаны на оборудовании, в котором применяются широко используемые технологии. В довершение всего нужно сказать, что четырехжильный оптоволоконный кабель имеет такой же диаметр 0,125 мм, что и стандартный кабель, а это означает, что он совместим с существующей инфраструктурой и производственными процессами.


По международным стандартам внешний диаметр оболочки оптических волокон составляет 0,125 ± 0,0007 мм, а внешний диаметр слоя покрытия — от 0,235 до 0,265 мм.

Рекорд скорости передачи данных: 1,02 петабит в секунду по оптоволокну стандартного диаметра Оптоволокно, IT, Технологии, Длиннопост

Приведем сравнительную таблицу, в которой видно, как исследователи шли к рекорду.

Рекорд скорости передачи данных: 1,02 петабит в секунду по оптоволокну стандартного диаметра Оптоволокно, IT, Технологии, Длиннопост

Данные передавались по 801 каналу и были распределены по трем диапазонам: обычно используемым диапазонам C и L, а также по экспериментальному – S-диапазону с разнесением полос по 25 ГГц на каждый канал, двойной поляризацией и модуляцией 256 QAM во всех диапазонах волн.

Рекорд скорости передачи данных: 1,02 петабит в секунду по оптоволокну стандартного диаметра Оптоволокно, IT, Технологии, Длиннопост

Диапазон C (длина волны 1530–1565 нм) и диапазон L (1565–1625 нм) чаще всего используются для передачи данных на большие расстояния, O-диапазон (1260–1360 нм) в настоящее время используется только для связи на короткие расстояния. U-диапазон (1625–1675 нм) редко используется из-за отсутствия подходящего усиления. Новые технологии усилителей позволили провести исследования по использованию E-диапазона (1360–1460 нм) и S-диапазона (1460–1530 нм). А в этом эксперименте впервые была использована большая часть S-диапазона.

Рекорд скорости передачи данных: 1,02 петабит в секунду по оптоволокну стандартного диаметра Оптоволокно, IT, Технологии, Длиннопост

В результате с помощью указанных выше и некоторых других новых технологий оптического усиления и модуляций сигнала команда достигла рекордной скорости 1,02 Пбит/с, передавая данные по оптоволоконным кабелям длиной 51,7 км.


Данное исследование было представлено на Международной конференции по лазерной и электрооптике в мае этого года.


В статье использовалась информация статьи Майкла Ирвинга (Michael Irving), обозревателя журнала New Atlas и данные разработчиков из National Institute of Information and Communications Technology (NICT).


Материал подготовлен дата-центром ITSOFT

Показать полностью 6
90

Квантовый компьютер на базе модифицированной решетки алмаза способен работать при комнатной температуре

Квантовый компьютер на базе модифицированной решетки алмаза способен работать при комнатной температуре Квантовый компьютер, Кубит, IT, Технологии, Длиннопост

Австралийский исследовательский центр Pawsey совместно немецко-австралийским стартапом Quantum Brilliance провели испытания квантового компьютера, который может работать при комнатной температуре. Квантовый «ускоритель», так называют его разработчики, использует синтетические алмазы с модифицированной на атомном уровне кристаллической решеткой, являющейся основой вычислительных элементов — кубитов.


Физическая основа метода состоит в том, что внутрь алмазной решетки имплантируются атомы азота, которые замещают атомы углерода и образуют так называемые NV-центры (nitrogen-vacancy center). Иначе говоря создается искусственное несовершенство алмазной структуры, которым можно манипулировать, т.е. использовать в качестве кубита. Далее с помощью световых и микроволновых сигналов образовавшийся “дефект” может быть переведен в режим вращения вверх, вниз или в суперпозицию этих состояний для управления состоянием кубита.

Квантовый компьютер на базе модифицированной решетки алмаза способен работать при комнатной температуре Квантовый компьютер, Кубит, IT, Технологии, Длиннопост

Для получения “центров азотных вакансий” применяется бомбардировка синтетического алмаза атомами азота. Но проблема заключается в том, что несмотря на большое количество выстрелов только один или два из них приводят к созданию кубита на нужном уровне. Плюс ко всему эти центры еще не так просто найти. Основная задача заключалась в том, чтобы масштабировать процесс и вывести его за пределы нескольких кубитов.


Команда Diamond Brilliance пошла дальше, она имплантирует азотную вакансию, потом выращивает новые алмазы, затем имплантируют другую азотную вакансию и так далее. У разработчиков есть планы по созданию системы из 50 кубитов.


Уже работающая установка представляет собой первую интеграцию систем квантовых вычислений и будет использоваться для демонстрации и тестирования гибридных моделей квантовых и классических вычислений путем объединения квантового ускорителя с Setonix, новым ультрасовременным компьютером Pawsey HPE Cray.

Квантовый компьютер на базе модифицированной решетки алмаза способен работать при комнатной температуре Квантовый компьютер, Кубит, IT, Технологии, Длиннопост

Исследователи заявляют, что их видение состоит в том, чтобы перевести квантовые технологии с мейнфреймов в массовый рынок — десктопы, автомобили, мобильные телефоны и любые другие применения, где только это нужно.


Мы уже писали о том, что квантовые компьютеры, использующие криогенные технологии для охлаждения компонентов почти до абсолютного нуля не придут в ЦОДы и обычные серверные из-за громоздкой и сложной инфраструктуры. Однако новый подход возможно позволит перенести квантовые вычисления не только в дата-центры, но и на любое персональное устройство.


Видео по теме.

Квантовый компьютер на базе модифицированной решетки алмаза способен работать при комнатной температуре Квантовый компьютер, Кубит, IT, Технологии, Длиннопост

В статье использовались данные разработчиков Quantum Brilliance и Pawsey Computing Centre, а также информационных порталов: Data Center Dynamics, ITWare, Cosmos Magazine, EE Times.

Материал подготовлен дата-центром ITSOFT

Показать полностью 4
763

Самый быстрый компьютер в мире преодолел экзафлопсный барьер

Самый быстрый компьютер в мире преодолел экзафлопсный барьер Суперкомпьютеры, AMD, IT, Технологии

Суперкомпьютер Frontier занял первое место в рейтинге самых быстрых компьютеров в мире (TOP500), показав производительность 1,1 экзафлопс. Система собрана в Окриджской национальной лаборатории на базе оборудования HPE и AMD. Это первая машина, преодолевшая порог производительности в квинтиллион (10 в 18-й степени) операций с плавающей запятой в секунду.


Frontier, с производительностью 62,68 гигафлопс на ватт, также занял первое место в рейтинге суперкомпьютеров Green500, который оценивает их энергоэффективность. Машина заняла первое место и в новой категории вычислений со смешанной точностью, которая оценивает производительность в форматах, обычно используемых для искусственного интеллекта, показав производительность 6,88 экзафлопс (каждый флоп представляет собой любой из видов вычисления: сложение, вычитание, умножение или деление).


Машина состоит 74 суперкомпьютерных шкафов HPE Cray EX, включающих 9408 узлов с 8,7 миллионами ядер на базе процессоров AMD. Каждый узел содержит один оптимизированный процессор EPYC и четыре ускорителя AMD Instinct, т.е. во всей системе насчитывается 37 600 графических процессоров.


Внутрисистемные хранилища будут использовать локальные запоминающие устройства, подключенные через PCIe Gen4 каналы с тем, чтобы обеспечить пиковую скорость чтения более 75 терабайт в секунду, пиковую скорость записи более 35 терабайт в секунду и более 15 миллиардов операций ввода-вывода в секунду. Центральная файловая система обеспечит емкость хранения около 700 петабайт и максимальную скорость записи 5 терабайт в секунду.

Для охлаждения используется жидкостная система, которая в отличие от отвода тепла холодным воздухом, позволяет чипам работать на пределе своих возможностей, а также способствует снижению шума в машинном зале. Производительность системы жидкостного охлаждения такова, что она способна наполнить плавательный бассейн за полчаса.

Видео по теме.


О масштабах суперкомпьютера косвенно можно судить по энергопотреблению, которое составляет 21 МВт, а всей системы – 40 МВт, что сопоставимо с потребляемой мощностью 30 тыс. домохозяйств. Как дата-центр мы можем сказать, что такое энергопотребление имеет крупный ЦОД. Также отметим, что протяженность кабельной разводки системы почти 150 км.


Суперкомпьютер строился далеко не только ради рекорда. Сейчас на нем продолжаются испытания, поскольку его теоретическая пиковая производительность составляет 2 экзафлопа, но конце этого года Frontier будет доступен для раннего научного доступа, а плановая эксплуатация начнется в начале 2023 года. Машина будет загружена исследованиями в области фундаментальной физики, выполнять задачи министерства энергетики и, как это принято говорить, будет призвана решать насущные проблемы нашего времени.

Самый быстрый компьютер в мире преодолел экзафлопсный барьер Суперкомпьютеры, AMD, IT, Технологии

Фото: Carlos Jones/ORNL/Министерство энергетики США


Материал подготовлен дата-центром ITSOFT

Показать полностью 1
21

Как клиенты теряют деньги из-за хостинга, но даже не знают об этом

Как клиенты теряют деньги из-за хостинга, но даже не знают об этом Хостинг, Служба поддержки, Проблема, IT, Длиннопост
Дисклеймер. Статья может показаться пиаром, но мы на самом деле рассказываем о своем опыте. Админам, думаю он будет интересен.

В прошлом году к нам на техподдержку пришел клиент (крупная фармкомпания, которой требовалось обслуживать >10 продуктовых сайтов) и помимо рядовых работ по самим сайтам в договор включили и администрирование серверов, на которых эти сайты расположены. Однако клиент настоял на том, что хостера менять он не хочет и на наши виртуальные сервера не мигрирует.


Изначально мы спокойно отнеслись к такому решению – хочет и хочет. Но в тот момент, когда мы начали настраивать базовый мониторинг сайтов началось “веселье”. Если кратко: все каналы, настроенные на оповещение начали утопать в “алертах”. О причинах, попытках решить этот вопрос и о наших выводах и будет дальнейший лонгрид.


Классический хостинг – это потеря денег

Тут важно отметить, для удобства дальнейшего чтения и понимания, что “классический хостинг” в нашем понимании – это теряющий свою актуальность shared web hosting, который я буду называть “хостинг”, виртуальные же серверы так и будут называться. Более подробная информация есть на нашем сайте.


Так в чем же обнаружилась глобальная проблема с сайтами? Как вы уже догадались, именно в том, что размещались они на хостинге. Далее разберем, в чем же заключаются основные проблемы при его использовании.

Сразу стоит отметить, что ситуация тут индивидуальная и в случае иной связки клиент+хостер все могло бы сложиться лучше иначе.


Вот наши вводные:

+ доступы от админки сайтов;

+ ftp-доступы;

– доступы по ssh;

– доступ к панели управления хостингом.


Ситуация хоть и индивидуальная, но не уникальная.


Проблема с мониторингом

Не получится настроить полноценный мониторинг на хостинге – это первое, с чем мы столкнулись.


Причина – нет доступов по ssh (точнее, нам их не дали). Как следствие, не получится настроить ряд функций мониторинга CMS, а значит, что-то можно пропустить. Но это проблема нашей проприетарной системы. Если же брать сторонние, например, Zabbix или Nixstats, которыми мы тоже пользуемся, то и тут возникнет проблема, так как на хостинг не получится установить агенты, которые необходимы для этих систем.

Тем не менее мониторинг ряда важных моментов возможен, и с этим можно жить.


Затруднено использование Git

Мы используем Git для контроля внесений изменений в файлы сайта, а так как у нас был доступ только по ftp, то его использование становится практически невозможным. Еще один момент - минус к безопасности, т.к. мы иногда используем Git для контроля целостности файлов (решение нестандартное, но рабочее). Идем дальше.

Отсутствие логов


Не получается логировать системные события, отслеживать атаки, ошибки в работе сайта и ряд других важных параметров. Например, не получается установить утилиту fail2ban (если ее или аналогов у хостера по каким-то причинам не установлено), а значит, сайт не защищен от того же брутфорса.


Логировать POST-запросы тоже не получится, а значит, если на сайте используется CMS, которая не имеет штатной функции фиксации изменений на сайте, то это тоже отслеживаться не будет, выявить вектор атаки не получится. В ряде случаев к сайтам могут предъявляться повышенные требования безопасности, что подразумевает использование таких инструментов как WAF (например Nemesida-WAF) или host-based IDS (OSSEC), что тоже не представляется возможным, опять же, если об этом по какой-то причине не позаботился хостер.


Почему? Все просто: хостер далеко не всегда предоставит вам права, необходимые для установки. А так как нет доступа к логам, анализировать их тоже не получится.

Тут и тут мы уже писали про систему Graylog, которой пользуемся, но на хостинге, само собой, она не применима без костылей (в случае, если известно, где хранятся логи веб-сервера). Пример из жизни: сайт упал и мы понимаем, что проблема не в хостинге. Если ее не решить, то ситуация будет повторяться. В случае использования виртуального сервера можно посмотреть логи, понять, в чем беда, и исправить. При их отсутствии приходится действовать вслепую, пробуя разные варианты, что получается и дольше, и трудозатратнее.


Проблемы с обновлениями

Захотели обновить 1С-Битрикс? Может возникнуть необходимость сконфигурировать параметры веб-сервера, что не представляется возможным на хостинге, так как рутовый доступ вы никогда не получите.


Еще один жизненный пример: нашлась уязвимость в CMS, которую нужно срочно закрыть. С одной стороны, можно дождаться обновлений, если они будут (и это не “срочно”), с другой, мы возвращаемся к необходимости закрыть что-то на стороне веб-сервера и, само собой, сделать так не получится.


Проблемы с SSL-сертификатами

Установка SSL при использовании хостинга возможна только из панели управления, куда доступов все еще нет. По той же причине, в случае, если сертификат некорректно “встал” или не работает, оперативно решить этот вопрос тоже не получится.


Проблема с резервным копированием

В случае с хостингом остается надеяться только на хостера, который:

а) делает резервные копии;

б) сможет оперативно предоставить доступ к ним (кстати, иногда за деньги и не всегда оперативно).


Более того, забрать контейнер целиком вы тоже не сможете, а это уже обидно.

Реальность же такова, что даже если хостер резервные копии делает, то не факт, что хранит нужное их количество достаточно долго, в случае же с виртуальным сервером можно настроить любой график и глубину хранения.


Проблема с масштабированием

Актуальная тема для больших и нагруженных систем, которая выросла в такое понятие как “kubernetes”, но для обычного продуктового сайта практически неактуальная. Однако в случае с хостингом шансов оперативно добавить памяти или процессорной мощности нет в принципе, в отличие от виртуального сервера. Да и узнать о такой необходимости будет сложнее.

Есть еще пара проблем, но о них невозможно сказать, не упомянув отдельно взятого хостера (в нашем случае это был известный всем ник.ру).


Проблема с доступностью сайтов

Это база, которая не только складывается из пунктов выше, но и является проблемой сама по себе.


Целенаправленно собирать статистику мы начали в середине сентября 2020 года. На данный момент ситуация следующая:

> 20 часов даунтайма;

> 250 “алертов”.


На отрезке в год эти цифры могут не выглядеть страшно, но назвать это уровнем доступности даже Tier II получится с натяжкой. Сразу стоит отметить, что мы считали то время, когда сайт именно недоступен. Если он открывается, но нужно подождать (иногда >30 секунд), что, по сути, тоже недоступность, то вышеназванные показатели можно умножать на 1,5-2. Кстати, в поддержку писали и звонили, но назвать их ответы оперативными не получится – кто обращался, тот поймет.


Было бы нечестно не указать и на позитивные подвижки. В конце лета, после очередного затянувшегося падения, работа хостинга заметно улучшилась. Раза в 2-3 точно.

Что же касается сработок мониторинга – ситуация, конечно, сугубо индивидуальная, но это более сотни часов работы инженеров, системного администратора, менеджера. Не подумайте, что я жалуюсь, отчасти за это нам и платят, но всё же есть возможность потратить это время с большей пользой. Если же у вас нет поддержки, за которую вы платите, – пожалейте своих сотрудников, откажитесь от хостинга!


Проблема с ранжированием сайтов (SEO)

Как формируется содержание поисковых запросов – тайна за семью печатями. Тем не менее, не секрет, что даунтайм сайта влияет на его ранжирование и чем даунтайм чаще и продолжительнее, тем ниже шансы ресурса попасть на выгодные позиции. Если сайты на хостинге регулярно “залипают” или бывают недоступны некоторое (пусть и непродолжительное) время, то при плохом сценарии мы получаем два очевидных момента:

- пользователи, которые пытаются зайти на сайт в это время, не дождутся и уйдут, что будет негативным фактором для поисковой системы;

- робот поисковой системы, по аналогии с пользователями, может не дождаться или не увидеть сайт, который решил отдохнуть.


А еще есть интересная статья о том, как “соседство” на shared-хостинге влияет на ранжирование сайтов (оригинал на английском, перевод). Но это совсем другая история.


Последняя же проблема снова связана с хостером и его политикой безопасности ... назовем это бонусом!


Проведешь нагрузочное тестирование – забанят!

С клиентом были договоренности, что два раза в год мы проводим нагрузочное тестирование. Ничего криминального, без фанатизма. Когда настало время первой попытки – начали готовиться, а для перестраховки решили обратиться в поддержку и уточнить один момент… а как они вообще на это отреагируют?

Попросили клиента с ними связаться, объяснить ситуацию, результат же не удивил:

“Здравствуйте!


В случае обнаружения аномальной активности на той или иной услуге хостинга, которая создает угрозу стабильности работы сетей RU-CENTER, работа услуги может быть полностью или частично приостановлена в соответствии с регламентом оказания соответствующей услуги.” (с)

Смело можно сказать, тестирование прошло успешно и с минимальными трудозатратами. Да, мы вытащили копии некоторых сайтов на свой хостинг и провели нагрузочное тестирование там, но кому это интересно?

Что же мы с этим делали?

Первая и логичная наша реакция – мы предложили клиенту переехать к нам.

Но как я уже писал в самом начале, хостера клиент менять отказывается и это – табу. В качестве альтернативы попросили закупить виртуальных серверов для сайтов. Много общались на эту тему, объясняли ситуацию, что не менее важно – нас слышали и понимали, но далее решение тонуло в череде согласований внутри компании, которая все же крупная и не без своих особенностей.


Пробовали менять “чувствительность” мониторинга, чтобы как минимум избавиться от условно ложных срабатываний, когда сайт немного “залип”, но сильно это не помогло.

Делать проверки реже и уж тем более отключить мониторинг совесть не позволяет – можно пропустить действительно важные ситуации.


Череда переговоров с клиентом привела к позитивным изменениям: некоторые сайты мигрировали на виртуальные сервера, но они все еще живут в ник.ру. Тем не менее, при использовании виртуальных серверов ситуация значительно улучшилась: минут 5-10 простоя в квартал! Не идеально, но гораздо приятнее и адекватнее. Один сайт, пусть и временно, удалось утащить и на наш хостинг (на время глобальных доработок), там аптайм – 99,999%, и мы надеемся, что это может сказаться на дальнейшем общении.


Еще немного интересной статистики

Чтобы немного разбавить повествование, мы на протяжении недели собирали статистику с крупных и известных сайтов, таких как: vsemayki.ru, lenta.ru, wildberries.ru, gosuslugi.ru, ozon.ru, gazeta.ru, auto.ru, consultant.ru, nalog.ru, ponyexpress.ru.


Графики можно посмотреть тут. Выборка очень слабая – это факт, но даже тут мы смогли отметить пару интересных моментов:


vsemayki.ru – за куратором, куратор наш мониторинг счел вредоносным и забанил :(

ponyexpress.ru – даунтайм > 1 часа. (даунтаймом мы считали таймаут в 15 секунд, в течение которых пользователь ничего внятного не получил).


Что хотелось бы резюмировать

- Если у вас коммерческий сайт – пожалуйста, размещайте его на виртуальном сервере, это правильно.

- Без мониторинга жить нельзя, потому что только так получится увидеть проблему раньше клиентов и отреагировать на нее. Если на вашем ресурсе нет мониторинга – устанавливайте, срочно! Настройте сами, используйте сторонние сервисы, закажите настройку.

- Мнение со стороны никогда не будет лишним. Проверьте свой хостинг / сотрудников, привычное же всегда ближе и теплее.

- Проблемы с хостингом – это деньги, которые вы можете терять, даже не замечая того. Считать чужие деньги не принято, так что можете посчитать самостоятельно. Тут есть неплохая статья на эту тему.


Не бросайте свои сайты – позвольте клиентам пользоваться вашими услугами!

Как клиенты теряют деньги из-за хостинга, но даже не знают об этом Хостинг, Служба поддержки, Проблема, IT, Длиннопост

Материал подготовлен дата-центром и веб-студией ITSOFT

Показать полностью 1
9

Суперкомпьютер на основе крупнейшего в мире полупроводникового чипа HPE-Cerebras

Суперкомпьютер на основе крупнейшего в мире полупроводникового чипа HPE-Cerebras Суперкомпьютеры, Hewlett Packard, Искусственный интеллект, Сервер, IT, Длиннопост

Компьютерный центр Лейбница в Баварии установит новый суперкомпьютер с сервером HPE Superdome Flex и системой Cerebras CS-2.


Машина включает в себя крупнейший в мире полупроводник Wafer Scale Engine 2 – это огромный чип с 2,6 триллионами транзисторов, имеющий 850 000 ядер и 40 ГБ встроенной памяти SRAM. Система оптимизирована для решения задач искусственного интеллекта и подключена к 1,2 терабайтным Ethernet каналам, при этом имея собственную пропускную способность 20 петабайт/с на уровне памяти и 220 петабит/с совокупной пропускной способности. Об этом пишет Себастьян Мосс (Sebastian Moss) в журнале Data Center Dynamics.

Суперкомпьютер на основе крупнейшего в мире полупроводникового чипа HPE-Cerebras Суперкомпьютеры, Hewlett Packard, Искусственный интеллект, Сервер, IT, Длиннопост

Компоновка всех элементов (процессоров, памяти и внутренних каналов связи) с высокой плотностью на одном чипе, разработанным на 7 нм технологии и площадью 46 225 мм2 обусловлена тем, что позволяет достичь максимальной скорости обработки данных на единицу площади.

Суперкомпьютер на основе крупнейшего в мире полупроводникового чипа HPE-Cerebras Суперкомпьютеры, Hewlett Packard, Искусственный интеллект, Сервер, IT, Длиннопост

Суперкомпьютер Cerebras CS-2 с процессором WSE2 объемом менее одной стойки, имеет мощность 23 кВт (с учетом 6-ти кратного резервирования), но обеспечивает производительность, равную сотням графических процессоров общего назначения, занимающих телекоммуникационные шкафы всей серверной комнаты.


Инсталляция ожидается этим летом, финансируется в рамках государственной программы правительством Германии и станет первым развертыванием системы CS-2 в Европе.

Суперкомпьютер на основе крупнейшего в мире полупроводникового чипа HPE-Cerebras Суперкомпьютеры, Hewlett Packard, Искусственный интеллект, Сервер, IT, Длиннопост

= = = = =


Потребность пользователей в вычислительных ресурсах искусственного интеллекта удваивается каждые 3-4 месяца. Мы, как дата-центр чувствуем ее и разместили в машинном зале телекоммуникационные шкафы повышенной глубины, которые способны принимать серверы ИИ, имеющие габариты около 900 мм (плюс 150 мм под кабельную инфраструктуру):

Суперкомпьютер на основе крупнейшего в мире полупроводникового чипа HPE-Cerebras Суперкомпьютеры, Hewlett Packard, Искусственный интеллект, Сервер, IT, Длиннопост

Интересно сравнение, которое приводит компания Hewlett-Packard, с вероятно самым известным и производительным сервером NVidia A100 (первая строка в таблице).

Суперкомпьютер на основе крупнейшего в мире полупроводникового чипа HPE-Cerebras Суперкомпьютеры, Hewlett Packard, Искусственный интеллект, Сервер, IT, Длиннопост

Как видим Serebras намного впереди. Еще одно наглядное сравнение (по размеру чипа конечно же судить нельзя, помните анекдот — наши микрокалькуляторы самые большие в мире), тем не менее:

Суперкомпьютер на основе крупнейшего в мире полупроводникового чипа HPE-Cerebras Суперкомпьютеры, Hewlett Packard, Искусственный интеллект, Сервер, IT, Длиннопост

Уверены, что искусственный интеллект не модное слово, а долговременный тренд. Суперкомпьютеры скорее всего будут присутствовать не только в исследовательских центрах, но учитывая относительно умеренные габариты, величиной с холодильник, придут в ЦОДы и корпоративные серверные.

Показать полностью 6
1

Возможно ли будущее без паролей?

Возможно ли будущее без паролей? Пароль, Доступ, IT, Технологии, Ssh, Аутентификация, Длиннопост

Устали запоминать пароль, созданных полгода назад с минимум 8-ю знаками, одной заглавной буквой, одной цифрой и специальным символом? А вы ведь сделали все свои пароли разными, не так ли?


Во всемирный день паролей (5 мая) эксперты по безопасности и технологические гиганты проинформировали отрасль об инициативах создания будущего, которое защитит нас без паролей. Об этом пишет Джесика Дэвис (Jessica Davis) в журнале Data Center Knowledge.


Проблема с паролями


Согласно недавнему отчету SpyCloud о персональных данных, повторно используемые пароли были основной целью кибератак. В отчете также отмечается, что 64% пользователей использовали пароли повторно.


Но как запомнить все эти пароли? Исследование NordPass показало, что самым популярным паролем был «123456», а пятым по популярности паролем было слово «пароль».


Понятно, что в мире паролей что-то сломалось. И давно. Хотя многофакторная аутентификация и обеспечивает дополнительный уровень безопасности предприятий, но она снижает производительность, заставляя сотрудников прерывать работу с тем, чтобы ввести код или предоставить отпечаток пальца. И чем неудобнее меры безопасности, тем больше вероятность того, что пользователи будут искать способ их игнорирования или обхода.


Отказ от паролей


“Полное устранение паролей когда-то звучало, как смелая идея, — говорит Грег Стьюклин (Greg Stuecklin), вице-президент и генеральный менеджер компании WSO2, которая, среди прочих решений, создает сервер идентификации. — Отмечено, что уязвимости с учетными данными, такими, как имя пользователя и пароль, составляют более 84% утечек данных. Существуют более простые и эффективные способы аутентификации пользователей, включая альтернативные варианты входа в систему, такие как стандарт Fast ID Online 2.0 (FIDO2), вход по биометрическим данным и внешние аутентификаторы”.


Марк Ручи (Mark Ruchie), директор по информационным технологиям компании Entrust, занимающейся цифровой безопасностью и защитой данных, говорит, что мобильные push-токены, вход по учетным данным на основе сертификатов и различные формы биометрии могут облегчить работу сотрудников и создать простую и надежную инфраструктуру безопасности с меньшей “поверхностью” атак со стороны широкого арсенала угроз. Поскольку кибератаки становятся все более изощренными, компании понимают, что пароли создают головную боль, как для ИТ-отделов, так и для сотрудников. “Они — проклятие в жизни каждого директора по информационной безопасности”, — заключает Ручи.


Apple, Google, Microsoft расширяют поддержку FIDO


Три технологических гиганта пообещали расширить поддержку FIDO. Согласно заявлению, опубликованному Альянсом FIDO – Apple, Google и Microsoft объявили об ускорении разработок по доступу без пароля. Данные компании уже поддерживают стандарты Альянса, но декларированы еще две новые возможности, которые позволят пользователям автоматически получать доступ к своим учетным данным для входа в FIDO или «парольным ключам» без необходимости повторной регистрации каждой учетной записи. Они дадут возможность использовать Аутентификацию FIDO на мобильных устройствах для входа в приложение или веб-сайт независимо от типа операционной системы или браузера. Новые возможности станут доступны на платформах Apple, Google и Microsoft в следующем году.


Директор Google по безопасной аутентификации Сампат Шринивас (Sampath Srinivas) заявил, что компания внедрит беспарольную поддержку стандартов входа FIDO в Android и Chrome.

На своем сайте Microsoft Tech Community Алекс Саймонс (Alex Simons), вице-президент по управлению продуктами подразделения идентификации и доступа, написал, что компания представляет несколько новых возможностей, в том числе беспарольный доступ для Windows 365, Azure Virtual Desktop и инфраструктуру виртуальных рабочих столов. В настоящее время эти функции находятся в предварительной версии тестирования Windows 11.


Windows Hello для бизнеса Cloud Trust — новая модель развертывания, которая может устранить прежние требования к инфраструктуре открытых ключей и синхронизации открытых ключей между Azure Active Directory и локальными контроллерами домена. Microsoft Authenticator теперь позволяет использовать несколько учетных записей вместо одной, начиная с конца этого месяца на устройствах iOS, а позже появится и на Android. Кроме того, со следующего месяца Microsoft добавит временный пропуск доступа в Azure AD. Это ограниченный по времени пароль, который позволяет организациям использовать временный пропуск доступа для настройки новых устройств Windows вместо использования пароля.


Эти долгожданные подвижки в корпоративной и личной среде должны облегчить жизнь пользователям, разочаровавшимся в попытках запомнить сразу несколько паролей.


===


В качестве примера: разновидностью беспарольного доступа можно назвать ssh-аутентификацию по ключу, которой, например, пользуются сотрудники нашего дата-центра. Этот способ позволяет создать зашифрованное соединение между компьютером пользователя и сервером без необходимости постоянной аутентификации (ввода пароля) для каждой сессии.

Возможно ли будущее без паролей? Пароль, Доступ, IT, Технологии, Ssh, Аутентификация, Длиннопост

Материал подготовлен дата-центром ITSOFT

Показать полностью 2
Отличная работа, все прочитано!