全自動なのがお気に入り。
サイズ:488GB
ディスク上のサイズ:57.6GB
サイズ:1.27TB
ディスク上のサイズ:2.57GB
# 「ディスク上のサイズ」が風呂敷広げすぎな感じがしますが
合計で1.8TB弱のファイルが入っているわけですが、以下のように使用領域は1.2TB弱に抑えられるわけですね。
使用領域:1.19TB
圧縮フォルダと何が違うねんと言われると困るんですが、同じファイル多数をフォルダで管理してたりすると、「効果は抜群だ」になると思われます。ざっくり、同じファイルが2個なら半分、4個なら、4分の1になるかと。
たとえばエクスプローラ上で重複ファイルを見つけて片方を消したり、リンクを張ったりして共有ファイルサーバの空き容量を絞り出している現場は多いと思いますが、そんな非生産的な作業こそ計算機にやらせるべきなのです。
特に構成管理が中途半端で失敗してフォルダ管理になったときなど、重複除去で共有ファイルサーバのHDDを節約できるかと思います。
# ソースファイルなどは圧縮かけたほうが効果高いかもしれませんが、
# 仕様書の類って、バージョンごとに全く変化しないファイルの巨大な塊に
# なりがちなので、効果は大きいかと。
設定だけしておけば、放り込んだファイルの重複をチェックしてごにょごにょしてくれます。
数年前、Mercurialで似たようなことを試したことがありますが、ファイルシステムベースだとやや安心ですね。
Mercurialで試したことというのは、巨大なソースツリーのリリースごとのzipを解凍したものをMercurialのリポジトリにひたすらコミットしていく、というものです。
zipのままでもかなり効果はありますが、zipが数GBサイズのソースの場合、数十リビジョン放り込んでもリポジトリのサイズは数十GBに抑えられました。
ただし、ファイル数が多いためか、クライアントアプリが誤作動したり、リポジトリが壊れたり不思議な現象がいろいろ発生しました。Gitだったらもう少し安定したのかもしれませんし、数年経った最近のバージョンだとすんなりいくのかもしれません。
最後の最後で、脱線してしまいましたが、専用のファイルサーバでなくてもOS標準の機能で重複除去されるのは、大変便利だと思います。
コメント