/DEMO2024

Амбассадоры Alt Linux представляют...

DEMO2024

DEMO exam 2024 for dummies

Для удобства список LAN Segmet, который необходимо создать при развёртывании образов в VMWare WorkStation. image
По умолчанию - все машины имеют интерфейс ens33 (NAT), для доступа к сети Интернет. При необходимости их можно отключить (убрать галочку с пункта "Connect at power on")

Описание задания

Образец задания для демонстрационного экзамена по комплекту оценочной документации.

Модуль 1: Выполнение работ по проектированию сетевой инфраструктуры

Задание 1 модуля 1

1. Выполните базовую настройку всех устройств:
a. Присвоить имена в соответствии с топологией:
image

ISP

su -
toor
hostnamectl set-hostname ISP; exec bash
нажать enter

CLI

su -
toor
hostnamectl set-hostname CLI; exec bash
нажать enter

image

HQ-R

su -
toor
hostnamectl set-hostname HQ-R; exec bash
нажать enter

HQ-SRV

su -
toor
hostnamectl set-hostname HQ-SRV; exec bash
нажать enter

BR-R

su -
toor
hostnamectl set-hostname BR-R; exec bash
нажать enter

BR-SRV

su -
toor
hostnamectl set-hostname BR-SRV; exec bash
нажать enter

b. Рассчитайте IP-адресацию IPv4 и IPv6. Необходимо заполнить таблицу №1, чтобы эксперты могли проверить ваше рабочее место.
Таблица №1

Имя устройства IPv4 IPv6 Имя интерфейса
CLI 10.0.1.2/24 255.255.255.0 2001:33::33/64 192 to ISP
ISP 10.0.1.1/24 255.255.255.0 2001:33::1/64 ens192 ISP to CLI
192.168.0.1/24 255.255.255.0 2001:11::1/64 ens224 ISP to HQ-R
192.168.1.1/24 255.255.255.0 2001:22::1/64 ens256 ISP to BR-R
HQ-R 192.168.0.2/24 255.255.255.0 2000:100::3f/122 ens192 HQ-R to ISP
10.0.0.1/26 255.255.255.0 2001:100::1/64 ens224 to HQ
HQ-SRV 10.0.0.2/26 255.255.255.192 2000:100::1/122 ens192 to HQ-R
BR-R 192.168.1.2/24 255.255.255.0 2000:200::f/124 ens160 BR-R to ISP
10.0.2.1/28 255.255.255.240 2001:100::2/64 ens192 to BR
BR-SRV 10.0.2.2/28 255.255.255.240 2000:200::1/124 ens192 to BR-R
HQ-CLI 10.0.0.3/26 255.255.255.192 2000:100::5/122
HQ-AD 10.0.0.4/26 255.255.255.192 2000:100::2/122

c. Пул адресов для сети офиса BRANCH - не более 16

255.255.255.240 = /28

d. Пул адресов для сети офиса HQ - не более 64

255.255.255.192 = /26

Настройка адресации

Назначаем адресацию согласно ранее заполненной таблицы №1

CLI

image

ip -c a

image

ISP

su -
toor
enter
nmtui

image
image
image
После установки ip-адресов необходимо переподключить интерфейсы.

Произведём настройку маршрута для CLI

ip route add default via 192.168.0.2

Необходимо включить опцию forwarding:

nano /etc/net/sysctl.conf
ctrl-x
y
enter

image

systemctl restart network
ip -c a

image

HQ-R

su -
toor
enter
nmtui

image image

ctrl-x
y
enter

Необходимо включить опцию forwarding:

nano /etc/net/sysctl.conf
ctrl-x
y
enter

image

systemctl restart network
ip -c a

image

HQ-SRV

В дальнейшем на HQ-SRV подразумевается получение адреса по DHCP от HQ-R.
Удостоверимся, что на интерфейсе установлено получение адресов через DHCP. image

BR-R

su -
toor
enter
nmtui

image
image

Необходимо включить опцию forwarding:

nano /etc/net/sysctl.conf
ctrl-x
y
enter

image

systemctl restart network
ip -c a

image

BR-SRV

image

ip -c a

image

2. Настройте внутреннюю динамическую маршрутизацию по средствам FRR. Выберите и обоснуйте выбор протокола динамической маршрутизации из расчёта, что в дальнейшем сеть будет масштабироваться.
Настройка FRR
Для настройки потребуется включённый forwarding, настройка выполнялась ранее.

Предварительно настроем интерфейс туннеля:

HQ-R

nmtui

image
image

BR-R

nmtui

image
image

Обоснование: Настройку динамическое маршрутизации производим с помощью протокола OSPF – Данный протокол динамической сети позволяет разделять сеть на логические области, что делает его масштабируемым для больших сетей.
Каждая область может иметь свою таблицу маршрутизации, что уменьшает нагрузку на маршрутизаторы и улучшает производительность сети.

HQ-R

nano /etc/frr/daemons
меняем строчку
ospfd=no на строчку
ospfd=yes

image

ctrl-x
y
systemctl enable --now frr
vtysh
conf t
router ospf
passive-interface default
network 10.0.0.0/26 area 0
network 172.16.0.0/24 area 0
exit
interface tun1
no ip ospf network broadcast
no ip ospf passive
exit
do write memory
exit

Зададим TTL для OSPF

nmcli connection edit tun1
set ip-tunnel.ttl 64
save
quit

Временно выключаем сервис службы firewalld

systemctl stop firewalld.service
systemctl disable --now firewalld.service
systemctl restart frr

BR-R

nano /etc/frr/daemons
меняем строчку
ospfd=no на строчку
ospfd=yes

image

ctrl-x
y
systemctl enable --now frr
vtysh
conf t
router ospf
passive-interface default
network 10.0.2.0/28 area 0
network 172.16.0.0/24 area 0
exit
interface tun1
no ip ospf network broadcast
no ip ospf passive
exit
do write memory
exit

Зададим TTL для OSPF

nmcli connection edit tun1
set ip-tunnel.ttl 64
save
quit

Временно выключаем сервис службы firewalld

systemctl stop firewalld.service
systemctl disable --now firewalld.service
systemctl restart frr

Проверим работу OSPF:

show ip ospf neighbor
exit

image P.S. в случае, если OSPF не заработал, можно перезапустить машины ISP BR-R HQ-R

a. Составьте топологию сети L3.

Схема топологии L3
image

P.S. спасибо sysahelper за рисунок!

3. Настройте автоматическое распределение IP-адресов на роутере HQ-R. a. Учтите, что у сервера должен быть зарезервирован адрес.

HQ-R

nano /etc/sysconfig/dhcpd
DHCPDARGS=ens224
ctrl-x
y
enter

image

cp /etc/dhcp/dhcpd.conf{.example,}
nano /etc/dhcp/dhcpd.conf

поправляем файл:
image

Проверяем файл на правильность заполнения. Обратите внимание, что файл заполнен в точности со скриншотом выше. (фигурные скобки в начале и конце секции, знаки ; и тд.)

dhcpd -t -cf /etc/dhcp/dhcpd.conf

image

systemctl enable --now dhcpd
systemctl status dhcpd
journalctl -f -u dhcpd

HQ-SRV

systemctl restart network

После проделанных манирпуляций HQ-SRV должен получить статический адрес. image

4. Настройте локальные учётные записи на всех устройствах в соответствии с таблицей 2.
Таблица №2

Логин Пароль Примечание
Admin P@ssw0rd CLI HQ-SRV HQ-R
Branch admin P@ssw0rd BR-SRV BR-R
Network admin P@ssw0rd HQ-R BR-R BR-SRV

CLI

image
Пароль: toor
image
image image image

BR-R

useradd branch-admin -m -c "Branch admin" -U
passwd branch-admin
useradd network-admin -m -c "Network admin" -U
passwd network-admin

image

BR-SRV

useradd branch-admin -m -c "Branch admin" -U
passwd branch-admin
useradd network-admin -m -c "Network admin" -U
passwd network-admin

image

HQ-R

useradd network-admin -m -c "Network admin" -U
passwd network-admin
useradd admin -m -c "Admin" -U
passwd admin

image

HQ-SRV

useradd admin -m -c "Admin" -U
passwd admin

image

5. Измерьте пропускную способность сети между двумя узлами HQ-R-ISP по средствам утилиты iperf 3. Предоставьте описание пропускной способности канала со скриншотами.

ISP

systemctl enable --now iperf3

HQ-R

systemctl enable --now iperf3
iperf3 -c 192.168.0.1 -f m --get-server-output

По результату проверки сделать скриншот.
image

6. Составьте backup скрипты для сохранения конфигурации сетевых устройств, а именно HQ-R BR-R. Продемонстрируйте их работу.

HQ-R

Cоздадим дирректорию для сохранения файла:

mkdir /opt/backup/

Запишем скрипт:

nano backup-script.sh

image

ctrl-x
y
жмём enter
chmod +x backup-script.sh
./backup-script.sh

Проверим содержимое файла бэкапа. Обратите внимание, что название архива варьируется, в зависимости от даты, когда была сделана резервная копия! Будьте внимательны.

tar -tf /opt/backup/hq-r-06.01.24.tgz | less

BR-R

Cоздадим дирректорию для сохранения файла:

mkdir /opt/backup/

Запишем скрипт:

nano backup-script.sh

image

ctrl-x
y
жмём enter
chmod +x backup-script.sh
./backup-script.sh

Проверим содержимое файла бэкапа. Обратите внимание, что название архива варьируется, в зависимости от даты, когда была сделана резервная копия! Будьте внимательны.

tar -tf /opt/backup/hq-r-06.01.24.tgz | less

7. Настройте подключение по SSH для удалённого конфигурирования устройства HQ-SRV по порту 2222. Учтите, что вам необходимо перенаправить трафик на этот порт посредством контролирования трафика.

HQ-SRV

nano /etc/openssh/sshd_config

image

ctrl-x
y
enter
systemctl restart sshd

HQ-R

nft add table inet nat
nft add chain inet nat prerouting '{ type nat hook prerouting priority 0; }'
nft add rule inet nat prerouting ip daddr 192.168.0.2 tcp dport 22 dnat to 10.0.0.2:2222
nft list ruleset | tail -n 7 | tee -a /etc/nftables/nftables.nft
systemctl enable --now nftables
systemctl restart nftables
nft list ruleset

image

Выполняем проверку подключения:
image

8. Настройте контроль доступа до HQ-SRV по SSH со всех устройств, кроме CLI.

HQ-SRV

systemctl enable --now nftables.service
nft add rule inet filter input ip saddr 10.0.1.2 tcp dport 2222 counter drop

image

nano /etc/nftables/nftables.nft

Удаляем всё содержимое файла до закоментированных строк:
image

nft list ruleset | tee -a /etc/nftables/nftables.nft

image

systemctl restart nftables
nft list ruleset

image

Выполняем проверку:

CLI

image
В результате настройки, соединение с сервером HQ-SRV по ssh установить не удастся.

Модуль 2: Организация сетевого администрирования

Задание модуля 2

1. Настройте DNS-сервер на сервере HQ-SRV:
a. На DNS сервере необходимо настроить 2 зоны

Зона hq.work

Имя Тип записи Адрес
hq-r.hq.work A, PTR IP-адрес
hq-srv.hq.work A, PTR IP-адрес

Зона branch.work

Имя Тип записи Адрес
br-r.branch.work A, PTR IP-адрес
br-srv.branch.work A IP-адрес

HQ-SRV

nano /etc/bind/options.conf

image

systemctl enable --now bind
nano /etc/bind/local.conf

image

cp /etc/bind/zone/{localdomain,hq.db}
cp /etc/bind/zone/{localdomain,branch.db}
cp /etc/bind/zone/{127.in-addr.arpa,0.db}
cp /etc/bind/zone/{127.in-addr.arpa,2.db}
chown root:named /etc/bind/zone/{hq,branch,0,2}.db
nano /etc/bind/zone/hq.db

Обратите внимание на синтаксис. Проверьте точки в конце наименований зон! image

nano /etc/bind/zone/branch.db

image

nano /etc/bind/zone/0.db

image

nano /etc/bind/zone/2.db

image

systemctl restart bind

Выполняем проверку:

image

Если настройка была выполнена верно, то вы увидети прямые и обратные зоны DNS.

2. Настройте синхронизацию времени между сетевыми устройствами по протоколу NTP

a. В качестве сервера должен выступать роутер HQ-R со стратумом 5 b. Используйте Loopback интерфейс на HQ-R, как источник сервера времени c. Все остальные устройства и сервера должны синхронизировать свое время с роутером HQ-R d. Все устройства и сервера настроены на московский часовой пояс (UTC +3)

HQ-R

Настраиваем сервер времени с параметрами необходимыми в задании:

nano /etc/chrony.conf

image
Перезагружаем машину
Проверяем:
image
image
Далее производим настройку клиентов (настройка на всех машинах идентична):

HQ-SRV

nano /etc/chrony.conf

image

systemctl enable --now chronyd

Перезагружаем машину
Проверяем:
image

CLI

nano /etc/chrony.conf

image

systemctl enable --now chronyd

Перезагружаем машину

BR-R

nano /etc/chrony.conf

image

systemctl enable --now chronyd

Перезагружаем машину

BR-SRV

nano /etc/chrony.conf

image

systemctl enable --now chronyd

Перезагружаем машину
Выполняем проверку:

HQ-R

chronyc clients

В таблице должны появиться все клиенты, которые синхронизируют время с сервером.
image

3. Настройте сервер домена на базе HQ-SRV через web интерфейс, выбор технологий обоснуйте
a. Введите машины BR-SRV и CLI в данный домен
b. Организуйте отслеживание подключения к домену

ISP

Произведём настройку маршрута для CLI

ip route add default via 192.168.0.2

Внимание! рекомендую сделать snapshot перед началом действий, в случае если возникнут трудности, воизбежении потери времени! Обоснование: Выбор Samba в качестве контроллера домена обеспечивает интеграцию Linux-систем в сети Windows, обеспечивает безопасное управление ресурсами в сети и снижает затраты на создание и поддержку контроллера домена. Также на базе samba в дальнейшем планируется развёртка сетевых ресурсов организации, что позволит в рамках одного программного решения реализовать несколько практических задач.

HQ-SRV

Произведём временное отключение интерфейсов. Обязательно перед началом настройки samba!

nmtui

image
image

control bind-chroot disabled
grep -q 'bind-dns' /etc/bind/named.conf || echo 'include "/var/lib/samba/bind-dns/named.conf";' >> /etc/bind/named.conf
nano /etc/bind/options.conf

image
image

systemctl stop bind
nano /etc/sysconfig/network

image

hostnamectl set-hostname hq-srv.demo.first;exec bash
domainname demo.first
rm -f /etc/samba/smb.conf
rm -rf /var/lib/samba
rm -rf /var/cache/samba
mkdir -p /var/lib/samba/sysvol
samba-tool domain provision

image

systemctl enable --now samba
systemctl enable --now bind
cp /var/lib/samba/private/krb5.conf /etc/krb5.conf
samba-tool domain info 127.0.0.1

image

host -t SRV _kerberos._udp.demo.first.
host -t SRV _ldap._tcp.demo.first.
host -t A hq-srv.demo.first

image

kinit administrator@DEMO.FIRST

image

Вводим машины в домен:

CLI

Указываем DNS сервер домена
image
image
Отключаем и включаем сетевое соединение
image
image

acc

image
image
image

reboot

Авторизируемся под учётной записью administrator
image
Пароль: P@ssw0rd
image

BR-SRV

Указываем DNS сервер домена
image
image
Отключаем и включаем сетевое соединение
image
image

acc

image
image
image
image

reboot

Авторизируемся под учётной записью administrator
image
Пароль: P@ssw0rd
image

CLI

Необходимо зайти обратно под пользователем user

kinit administrator

image

admc

Необходимо создать доменных пользователей из таблицы (они не конфликтуют с теми, что были созданы ранее), они необходимы для настройки доступа к сетевым хранилищам.

Логин Пароль
Admin P@ssw0rd
Branch admin P@ssw0rd
Network admin P@ssw0rd

image
Создаём группы для только что созданных пользователей:
image

4. Реализуйте файловый SMB или NFS (выбор обоснуйте) сервер на базе сервера HQ-SRV.

a. Должны быть опубликованы общие папки по названиям:
i. Branch_Files - только для пользователя Branch admin;
ii. Network - только для пользователя Network admin;
iii. Admin_Files - только для пользователя Admin;
b. Каждая папка должна монтироваться на всех серверах в папку /mnt/ (например, /mnt/All_files) автоматически при входе доменного пользователя в систему и отключаться при его выходе из сессии. Монтироваться должны только доступные пользователю каталоги
Обоснование: Выбор Samba в качестве файлового протокола обеспечивает интеграцию Linux-систем в сети Windows, обеспечивает безопасный обмен файлами в сети и снижает затраты на создание и поддержку сетевого файлового сервера. Для удобного администрирования, т.к. ранее в качестве контроллера домена была выбрана технология samba, было принято решение использовать в качестве протокола для хранения данных - SMB, также реализован алгоритм контроля доступа к сетевым ресурсам с использованием учётных доменных записей пользователей.

HQ-SRV

mkdir /opt/{branch,network,admin}
chmod 777 /opt/{branch,network,admin}
nano /etc/samba/smb.conf

image

systemctl restart samba

BR-SRV

nano /etc/pam.d/system-auth

image

nano /etc/security/pam_mount.conf.xml

image P.S. напишите один раздел, затем скопируйте его 2 раза, поменяв uid и path

Проверяем Заходим из под пользователя Admin:
image
Заходим из под пользователя Branch admin:
image
Заходим из под пользователя Network admin:
image

5. Сконфигурируйте веб-сервер LMS Apache на сервере BR-SRV:

a. На главной странице должен отражаться номер места
b. Используйте базу данных mySQL
c. Создайте пользователей в соответствии с таблицей

Пользователь Группа
Admin Admin
Manager1 Manager
Manager2 Manager
Manager3 Manager
User1 WS
User2 WS
User3 WS
User4 WS
User5 TEAM
User6 TEAM
User7 TEAM

BR-SRV

mariadb
CREATE DATABASE moodle;
CREATE USER 'moodle'@’localhost’ IDENTIFIED BY 'moodle';
GRANT SELECT,INSERT,UPDATE,DELETE,CREATE,CREATE TEMPORARY TABLES,DROP,INDEX,ALTER ON moodle.* TO 'moodle'@’localhost’;
nano /var/www/html/moodle/config.php

image

systemctl enable --now httpd2.service

Проверяем доступность развёрнутого портала по адресу http://moodle.localhost/install.php image

Настроим доступ по имени на клиенте:

CLI

echo 10.0.2.2 moodle.demo.first moodle >> /etc/hosts

Проверяем:
image

Производим установку: Выбирайте англ. язык! image
image
image
image
image
image
image
image
image
Создаём группы для пользователей заданных в таблице:
image
image
image
image
По аналогии создаём оставшиеся группы
Проверяем:
image
Создаём пользователей:
image
image
image
image
По аналогии создаём оставшихся пользователей
Проверяем:
image
Добавляем пользователей в соответствующие группы:
image
image
По аналогии добавляем оставшихся пользователей в группы
Проверяем:
image

6. Запустите сервис MediaWiki используя docker на сервере HQ-SRV.

a. Установите Docker и Docker Compose.
b. Создайте в домашней директории пользователя файл wiki.yml для приложения MediaWiki:
i. Средствами docker compose должен создаваться стек контейнеров с приложением MediaWiki и базой данных
ii. Используйте два сервиса;
iii. Основной контейнер MediaWiki должен называться wiki и использовать образ mediawiki;
iv. Файл LocalSettings.php с корректными настройками должен находиться в домашней папке пользователя и автоматически монтироваться в образ;
v. Контейнер с базой данных должен называться db и использовать образ mysql;
vi. Он должен создавать базу с названием mediawiki, доступную по стандартному порту, для пользователя wiki с паролем DEP@ssw0rd;
vii. База должна храниться в отдельном volume с названием dbvolume.
MediaWiki должна быть доступна извне через порт 8080.

HQ-SRV

Необходимо выключить сервис alterator

systemctl disable --now ahttpd
systemctl disable --now alteratord

Проверяем содержимое файла:

nano ~/wiki.yml

image

Перезагружаем сервисы docker:

systemctl restart docker
docker start db
docker start wiki
docker ps

image
Проверяем доступность ресурса через браузер:
image

Настроим доступность ресурса извне:

CLI

echo 10.0.0.2 mediawiki.demo.first mediawiki >> /etc/hosts

Проверяем доступность:
image
Производим настройку:

HQ-SRV

image
image
image
Пароль от БД: DEP@ssw0rd
image
image
image
image
image
После настройки, необходимо скачать файл LocalLocalSettings.php
image
Переместите скачанный файл в директорию, в которой находится файл wiki.yml

su -
toor
cp /home/user/Загрузки/LocalSettings.php ./
nano ~/wiki.yml

Проверяем, что данная стока не закоментирована (Отсутствует #) image

ctrl-x
y
docker-compose -f wiki.yml stop
docker-compose -f wiki.yml up -d

Проверяем доступ к http://mediawiki.demo.first:8080:

CLI

image
вход осуществляем из под пользователя wiki с паролем DEP@ssw0rd : image
image

Under Construction


Модуль 3: Эксплуатация объектов сетевой инфраструктуры

Задание модуля 3:

1. Реализуйте мониторинг по средствам rsyslog на всех Linux хостах. a. Составьте отчёт о том, как работает мониторинг

2. Выполните настройку центра сертификации на базе HQ-SRV:
a. Выдайте сертификаты для SSH;
b. Выдайте сертификаты для веб серверов;

3. Настройте SSH на всех Linux хостах:
a. Banner ( Authorized access only! );
b. Установите запрет на доступ root;
c. Отключите аутентификацию по паролю;
d. Переведите на нестандартный порт;
e. Ограничьте ввод попыток до 4;
f. Отключите пустые пароли;
g. Установите предел времени аутентификации до 5 минут;
h. Установите авторизацию по сертификату выданным HQ-SRV

Т.к. настройка всех параметров идентична для всех устройств пример будет показан на устройстве HQ-SRV. Все настройки заключаются в изменении конфигурационного файла sshd_config. Для удобства выполнения пользуйтесь поиском по файлу (ctrl+w)
a. Banner ( Authorized access only! );

nano /etc/openssh/banner

image

nano /etc/openssh/sshd_config

image
b. Установите запрет на доступ root;
image
c. Отключите аутентификацию по паролю;
image
d. Переведите на нестандартный порт;
image
e. Ограничьте ввод попыток до 4;
image
f. Отключите пустые пароли;
image
g. Установите предел времени аутентификации до 5 минут;
image
image
h. Установите авторизацию по сертификату выданным HQ-SRV

расписать пункт

  1. Настройте виртуальный принтер с помощью CUPS для возможности печати документов из Linux-системы на сервере BR-SRV. Предположим, что печать должна осуществляться с устройства CLI

BR-SRV

Открываем в браузере http://localhost:631/admin : image
image
image
image
image
image
image
image
image

CLI

Добавляем принтер:
image
image
image
После поиска появится окно аутентификации, игнорируем его. image
image
image
image

Проверяем результат:

BR-SRV

image

  1. Между офисами HQ и BRANCH установите защищенный туннель, позволяющий осуществлять связь между регионами с применением внутренних адресов.

HQ-R

nano /etc/strongswan/ipsec.conf

image
image

systemctl enable --now ipsec.service

BR-R

nano /etc/strongswan/ipsec.conf

image
image

systemctl enable --now ipsec.service
ipsec status
  1. Настройте программный RAID 5 из дисков по 1 Гб, которые подключены к машине BR-SRV.

BR-SRV

lsblk

image

mdadm --create /dev/md0 --level=5 --raid-devices=3 /dev/sdb /dev/sdc /dev/sdd
watch cat /proc/mdstat

image

mkfs.ext4 /dev/md0
mkdir /mnt/raid5
mount /dev/md0 /mnt/raid5
nano /etc/fstab

image

Проверяем работоспособность:
image

Модуль 4: Организация сетевого администрирования

Задание 4 модуля

a. Установите и настройте сервер мониторинга на базе машины CLI с использованием БД PostgreSQL. Выбор технологии решения обоснуйте.
б. Произведите разграничение доступа к панели управления системы мониторинга путём создания отдельной учётной записи в соответствии с таблицей 1.
Таблица №1

Учётная запись Пароль
AdminMonitoring P@ssw0rd

в. Произвести настройку агента мониторинга центрального узла сети – ISP.
г. Произведите настройку правил проверки узла мониторинга на доступность с использованием протокола ICMP.
д. Осуществите проверку доступности узлов мониторинга на сервере, оформите отчёт с результатами проверки.

a. Установите и настройте сервер мониторинга на базе машины CLI с использованием БД PostgreSQL. Выбор технологии решения обоснуйте.

Обоснование выбора: В контексте системы мониторинга Zabbix, PostgreSQL может быть использована как дополнительное хранилище для сохранения метрик на более длительный срок. Это позволяет хранить большое количество данных и обеспечивает возможность анализа и отчетности по метрикам за длительный период времени. Система мониторинга Zabbix является более традиционным инструментом, который лучше подходит для мониторинга инфраструктуры и серверов, являясь всеобще принятым стандартом в организациях.

CLI

Меняем значение в файле

nano /etc/php/7.4/apache2-mod_php/php.ini

image

systemctl start --now httpd2.service
systemctl enable httpd2.service

В окне браузера переходим по адресу: http://localhost/zabbix/setup.php image
image
image
image
image
Далее появится окно, в котором потребуется сохранить файл конфигурации и в ручную перенести его в необходимую папку:

cp /home/user/Загрузки/zabbix.conf.php /var/www/webapps/zabbix/ui/conf/

После необходимо "Finish". image
Установка завершена.

б. Произведите разграничение доступа к панели управления системы мониторинга путём создания отдельной учётной записи в соответствии с таблицей 1. Таблица №1

Учётная запись Пароль
AdminMonitoring P@ssw0rd!

После авторизации в панели администрирования - создадим пользователя:

CLI

image
image
image
image
image
image

в. Произвести настройку агента мониторинга центрального узла сети – ISP.

ISP

nano /etc/zabbix/zabbix_agentd.conf

image
image
image

systemctl start --now zabbix_agentd.service
systemctl enable zabbix_agentd.service

г. Произведите настройку правил проверки узла мониторинга на доступность с использованием протокола ICMP.

CLI

image
image
image
image
image
image
image
image
P.S. обращаю внимание, что агент поднимается не моментально, а в течении нескольких минут!

д. Осуществите проверку доступности узлов мониторинга на сервере, оформите отчёт с результатами проверки.

CLI

image
image
image
image

Отчёт: Проверка доступности вновь созданного узла мониторинга ISP показала, что узел - доступен, связь стабильная. Всего было отправлено 3 пакета. Потеря пакетов составляет 0%. К данному отчёту прикпепляется скриншот с успешной отправкой ICMP запросов. (последний скриншот)