Допустим у меня есть бэкап в виде почасовых дампов жирных табличек базы данных, то есть файлики которые различаются только хвостом. Придумала ли компьютерная наука оптимальный способ сжатия для таких случаев? (чтобы размер архива был хотя бы равен размеру одного из файлов)
Инкрементальные бэкапы, и файловые, и баз данных, очень давно появились. Можешь xdelta проходить, если на коленке делаешь.
@mugiseyebrows Ты подумай, как не остаться с голыми дельтами на руках, когда кто-то или что-то удалит старые файлы во время чистки диска. Складывай всю серию в папочку, что ли, и удаляй только директории как единое целое, например.