diff --git a/sysadmin/backup/rclone/rclone-backup.html b/sysadmin/backup/rclone/rclone-backup.html index 3e737d4..b6c450f 100644 --- a/sysadmin/backup/rclone/rclone-backup.html +++ b/sysadmin/backup/rclone/rclone-backup.html @@ -2,67 +2,41 @@ title: rclone-backup description: published: true -date: 2023-11-15T15:58:15.041Z +date: 2023-11-15T16:00:26.198Z tags: editor: ckeditor dateCreated: 2023-11-15T15:58:15.041Z --> -

 

-

Постоянно пользуюсь утилитой rclone для загрузки данных в S3 хранилище. Вспомнил, что ни разу не писал про неё отдельно. Решил исправить. Думаю, многие знают про неё, так как программа старая, удобная, популярная. Она есть под все известные ОС: Windows, macOS, Linux, FreeBSD, NetBSD, OpenBSD, Plan9, Solaris.

-

Я использую её исключительно в консоли Linux. Она есть в базовых репозиториях, так что ставится стандартно:

-
- - - - - - -
apt install rclone - dnf install rclone
-
-


Самую свежую версию можно поставить вот так:

-
- - - - - - -
curl https://rclone.org/install.sh | bash
-
-

 

-

Далее рисуем простой конфиг в файле ~/.config/rclone/rclone.conf:

-
- - - - - - -
[selectel] - type = swift - user = 79167_username - key = uO6GdPZ97 - auth = https://api.selcdn.ru/v3 - tenant = 79167_username - auth_version = 3 - endpoint_type = public
-
-


Это пример для S3 хранилища от Selectel (https://selectel.ru/services/cloud/storage/?ref_code=5596463bb7). Все учётные данные получите в ЛК. Я давно им пользуюсь. Когда выбирал, он был самым дешёвым. Сейчас не знаю как, не сравнивал. Для объёмов до 100 Гб там цены небольшие. За этот объём заплатите рублей 300 примерно (стандартное хранилище, холодное ещё дешевле), так что не критично. Рекомендую дублировать бэкапы сайтов, магазинов в S3. У меня это всегда второе, холодное хранилище, куда уезжают полные архивы с определённой периодичностью.

-

Бэкап директории /mnt/backup/day делается следующим образом:

-
- - - - - - -
/usr/bin/rclone copy /mnt/backup/day selectel:websrv-day
-
-

Я обычно делаю 3 контейнера: day, week, month с настройкой хранения копий 7, 30 дней и бессрочно. Контейнер с месячными архивами чищу вручную время от времени, либо вообще не чищу. А первые два очищаются самостоятельно в соответствии со своими настройками. Следить самому за этим не надо. Если у вас это будет единственное хранилище, то очистку лучше настроить не по времени, а по количеству файлов в контейнере. Иначе если не уследите за бэкапами и они по какой-то причине не будут выполняться, через какое-то время все старые будут удалены, а новые не приедут.

-

В S3 от Selectel данные заходят очень быстро. Скорость до Гигабита в секунду. Скачивать редко приходится, так что не знаю, какая там реальная скорость, но проблем никогда не было. Думаю тоже что-то в районе гигабита, обычно сам интернет медленнее, куда грузить будете. Можно через панель управления зайти и открыть веб доступ к какому-нибудь файлу, сделать одноразовую ссылку. Также доступ к файлам есть через личный кабинет напрямую в браузере, либо по FTP. Я для визуального контроля и загрузки файлов обычно по FTP захожу.

-

Сайт - https://rclone.org

-

 

-
-

 

+

 

+

Постоянно пользуюсь утилитой rclone для загрузки данных в S3 хранилище. Вспомнил, что ни разу не писал про неё отдельно. Решил исправить. Думаю, многие знают про неё, так как программа старая, удобная, популярная. Она есть под все известные ОС: Windows, macOS, Linux, FreeBSD, NetBSD, OpenBSD, Plan9, Solaris.

+

Я использую её исключительно в консоли Linux. Она есть в базовых репозиториях, так что ставится стандартно:

+

apt install rclone dnf install rclone

+


Самую свежую версию можно поставить вот так:

+

curl https://rclone.org/install.sh | bash

+

Далее рисуем простой конфиг в файле ~/.config/rclone/rclone.conf:

+
[selectel]
+type = swift
+user = 79167_username
+key = uO6GdPZ97
+auth = https://api.selcdn.ru/v3
+tenant = 79167_username
+auth_version = 3
+endpoint_type = public
+


Это пример для S3 хранилища от Selectel (https://selectel.ru/services/cloud/storage/?ref_code=5596463bb7). Все учётные данные получите в ЛК. Я давно им пользуюсь. Когда выбирал, он был самым дешёвым. Сейчас не знаю как, не сравнивал. Для объёмов до 100 Гб там цены небольшие. За этот объём заплатите рублей 300 примерно (стандартное хранилище, холодное ещё дешевле), так что не критично. Рекомендую дублировать бэкапы сайтов, магазинов в S3. У меня это всегда второе, холодное хранилище, куда уезжают полные архивы с определённой периодичностью.

+

Бэкап директории /mnt/backup/day делается следующим образом:

+
+ + + + + + +
/usr/bin/rclone copy /mnt/backup/day selectel:websrv-day
+
+

Я обычно делаю 3 контейнера: day, week, month с настройкой хранения копий 7, 30 дней и бессрочно. Контейнер с месячными архивами чищу вручную время от времени, либо вообще не чищу. А первые два очищаются самостоятельно в соответствии со своими настройками. Следить самому за этим не надо. Если у вас это будет единственное хранилище, то очистку лучше настроить не по времени, а по количеству файлов в контейнере. Иначе если не уследите за бэкапами и они по какой-то причине не будут выполняться, через какое-то время все старые будут удалены, а новые не приедут.

+

В S3 от Selectel данные заходят очень быстро. Скорость до Гигабита в секунду. Скачивать редко приходится, так что не знаю, какая там реальная скорость, но проблем никогда не было. Думаю тоже что-то в районе гигабита, обычно сам интернет медленнее, куда грузить будете. Можно через панель управления зайти и открыть веб доступ к какому-нибудь файлу, сделать одноразовую ссылку. Также доступ к файлам есть через личный кабинет напрямую в браузере, либо по FTP. Я для визуального контроля и загрузки файлов обычно по FTP захожу.

+

Сайт - https://rclone.org

+

 

+
+