Когда вы используете файлы из S3-бакетов на сторонних ресурсах, например, на веб-сайте, вы можете столкнуться с ошибкой, связанной с CORS (Cross-Origin Resource Sharing). Эта ошибка возникает, когда браузер блокирует кросс-доменные запросы к ресурсам вашего бакета.
Для решения проблемы необходимо задать специальные правила CORS для бакета, которые разрешат выполнение кросс-доменных запросов. Рассмотрим, как настроить CORS для S3-бакета с помощью утилиты AWS CLI.
Для начала создайте файл cors.json
с конфигурацией CORS, который позволит выполнять GET и HEAD-запросы на объекты вашего бакета. Вот пример файла cors.json
:
{
"CORSRules": [
{
"AllowedHeaders": ["*"],
"AllowedMethods": ["GET", "HEAD"],
"AllowedOrigins": ["*"]
}
]
}
AllowedMethods
: указывает, какие HTTP-методы будут разрешены. В данном примере разрешены GET и HEAD запросы.
AllowedOrigins
: "*"
означает, что запросы разрешены с любого домена. Если вы хотите ограничить доступ только для определённого домена, укажите его вместо звёздочки.
Например, если ваш сайт расположен на домене https://example.com
, замените строку на:
"AllowedOrigins": ["https://example.com"]
После создания файла с правилами, загрузите его в ваш S3-бакет с помощью следующей команды:
aws s3api put-bucket-cors --bucket имя_бакета --endpoint-url https://s3.timeweb.cloud --cors-configuration file://cors.json
Вы можете проверить, что правила CORS были успешно установлены, выполнив команду:
aws s3api get-bucket-cors --bucket имя_бакета --endpoint-url https://s3.timeweb.cloud
Если вам необходимо удалить текущие правила CORS, выполните команду:
aws s3api delete-bucket-cors --bucket имя_бакета --endpoint-url https://s3.timeweb.cloud
Команда удалит все существующие правила CORS для вашего бакета.
При использовании S3 может потребоваться управлять жизненным циклом объектов, чтобы оптимизировать использование ресурсов и избежать переполнения хранилища. Для этого можно настроить правила жизненного цикла (Lifecycle rules), которые автоматически удаляют объекты через заданное количество дней.
Рассмотрим, как настроить правила жизненного цикла для объектов в S3-бакете, используя утилиту AWS CLI.
Чтобы настроить удаление файлов через определённое время, создайте файл с конфигурацией правил жизненного цикла. Например, если вам нужно хранить файлы в папке logs
только один день, создайте файл lifecycle.json
со следующим содержимым:
{
"Rules": [
{
"Status": "Enabled",
"Filter": {"Prefix": "logs/"},
"Expiration": {"Days": 1}
},
]
}
Prefix: указывает папку (или префикс), к которой будет применяться правило. В этом примере файлы из папки logs/
будут автоматически удаляться через один день.
Expiration: задаёт срок хранения файлов в днях. Здесь указано, что файлы будут удаляться через один день после загрузки.
Вы можете добавить несколько правил для разных папок или файлов. Например, если у вас есть другая папка logs2
, где файлы должны храниться два дня, просто добавьте дополнительное правило:
{
"Rules": [
{
"Status": "Enabled",
"Filter": {"Prefix": "logs/"},
"Expiration": {"Days": 1}
},
{
"Status": "Enabled",
"Filter": {"Prefix": "logs2/"},
"Expiration": {"Days": 2}
}
]
}
Теперь файлы в папке logs/
будут храниться один день, а в папке logs2/
— два дня.
После создания файла с правилами, загрузите его в ваш S3-бакет с помощью следующей команды:
aws s3api put-bucket-lifecycle-configuration --bucket имя_бакета --lifecycle-configuration file://lifecycle1.json --endpoint-url https://s3.timeweb.cloud
Эта команда применит указанные правила к вашему бакету, и файлы будут автоматически удаляться по истечении заданного срока.
Чтобы убедиться, что правила жизненного цикла были успешно загружены, выполните команду:
aws s3api get-bucket-lifecycle-configuration --bucket имя_бакета --endpoint-url https://s3.timeweb.cloud
Эта команда выведет текущие правила, установленные для вашего бакета.
Если вам нужно удалить все существующие правила жизненного цикла для бакета, выполните следующую команду:
aws s3api delete-bucket-lifecycle --bucket имя_бакета --endpoint-url https://s3.timeweb.cloud
Эта команда удалит все правила жизненного цикла, и файлы больше не будут автоматически удаляться.
Мультипарт-загрузка — это метод передачи больших файлов в S3-хранилище, при котором файл разбивается на части (чанки) и загружается параллельно. Это ускоряет процесс и повышает надежность: при сбое можно перезагрузить только поврежденную часть, а не весь файл. Такой подход удобен для работы с крупными файлами и при нестабильных сетевых соединениях.
При прерывании составной загрузки фрагменты файлов не отображаются в интерфейсе бакета, однако они продолжают занимать дисковое пространство на сервере. Для освобождения занятого места необходимо вручную завершить или отменить загрузку.
Многие инструменты и библиотеки для работы с S3 поддерживают мультипарт-загрузку и предоставляют возможность настройки размера частей. Инструкции по работе с мультипарт-загрузкой для конкретных инструментов можно найти в следующих статьях:
Эти инструменты предоставляют гибкие возможности по настройке процесса загрузки, что позволяет оптимизировать передачу данных в зависимости от ваших потребностей и параметров сети.
Шикарная информация! Спасибо большое за быстрые ответы и решение моей проблемы с политиками доступа - теперь всё работает как надо. Очень помогли, причем как в техподдержке, так и данной инструкцией. На своем форуме опубликовала вашу инструкцию под проект видеохранилища и мои рекомендации вашим услугам. После такого думаю перевести свои боевые проекты на ваши выделенные серверы, но есть пара вопросов - задам в техподдержку. Еще раз спасибо - Вы реально молодцы, сейчас редкость на такую быструю реакцию обычного пользователя. 5 баллов!
Добрый день!
Рады, что все получилось! Спасибо, что вы с нами 🤗