探検
圧縮・復元 相談室
■ このスレッドは過去ログ倉庫に格納されています
1デフォルトの名無しさん
NGNG アルゴリズムは別スレで
752デフォルトの名無しさん
2011/08/20(土) 13:11:59.31 >>751
いや、zipはLZ法といって
同じパターンを検出して別の符号で置き換えるという仕組みになってる
ランダムデータは繰り返しがないから圧縮出来ないし
数列の方は00h-ffhが繰り返されるからそこで縮むのよ
いや、zipはLZ法といって
同じパターンを検出して別の符号で置き換えるという仕組みになってる
ランダムデータは繰り返しがないから圧縮出来ないし
数列の方は00h-ffhが繰り返されるからそこで縮むのよ
753デフォルトの名無しさん
2011/08/20(土) 13:27:20.28 >>752
レス、どうも。
よくわかりました。
この場合ランダムデータと言えるか疑問ですが、
もし、ランダムデータでもちょっとでも繰り返しパターンが現れたとして、その大きさも出現率もランダムだとして、この場合少しは圧縮できると思います。
その場合は、
『データ量が多いほうが圧縮率が高くなる傾向がある』
とは理論的に言えないのでしょうか?
実験をして臨床的に?測定はできるでしょうが、まずは頭の中で整理したいので、よろしくお願いします。
レス、どうも。
よくわかりました。
この場合ランダムデータと言えるか疑問ですが、
もし、ランダムデータでもちょっとでも繰り返しパターンが現れたとして、その大きさも出現率もランダムだとして、この場合少しは圧縮できると思います。
その場合は、
『データ量が多いほうが圧縮率が高くなる傾向がある』
とは理論的に言えないのでしょうか?
実験をして臨床的に?測定はできるでしょうが、まずは頭の中で整理したいので、よろしくお願いします。
754デフォルトの名無しさん
2011/08/20(土) 13:36:12.73 >>753
データ(情報源)次第としか言いようがないんだけど
データ量が増えるほど参照可能なデータが増えるので圧縮率は上がる
と言える
ので理屈としてはそれであってる
言うまでもなく計算量は増えるけども
データ(情報源)次第としか言いようがないんだけど
データ量が増えるほど参照可能なデータが増えるので圧縮率は上がる
と言える
ので理屈としてはそれであってる
言うまでもなく計算量は増えるけども
755デフォルトの名無しさん
2011/08/20(土) 14:12:35.01756デフォルトの名無しさん
2011/08/20(土) 16:35:41.98 圧縮について理論的な裏付けを探しているなら、
次のキーワードについて調べてみるとよいでしょう。
初等的な情報理論の参考書に出ているものです。
情報源(符号化)
エントロピー
ユニバーサル
エルゴード性
エントロピーレート
次のキーワードについて調べてみるとよいでしょう。
初等的な情報理論の参考書に出ているものです。
情報源(符号化)
エントロピー
ユニバーサル
エルゴード性
エントロピーレート
757デフォルトの名無しさん
2011/08/20(土) 17:20:35.51758デフォルトの名無しさん
2011/08/21(日) 00:44:08.36 >>749
やってみないとわからないというより、何を目的に聞いているのかわからないから、答えにくい。
圧縮もzip(LZ法+ハフマン)に限る話なのか、あらゆるアルゴリズムを検討するかによっていろいろ変わってくる。
情報理論的にランダムデータは統計的には圧縮できない。
(圧縮できるケースも0ではないが、できないケースがそれをはるかに上回る)
やってみないとわからないというより、何を目的に聞いているのかわからないから、答えにくい。
圧縮もzip(LZ法+ハフマン)に限る話なのか、あらゆるアルゴリズムを検討するかによっていろいろ変わってくる。
情報理論的にランダムデータは統計的には圧縮できない。
(圧縮できるケースも0ではないが、できないケースがそれをはるかに上回る)
759デフォルトの名無しさん
2011/09/08(木) 00:22:45.54 解凍速度重視でデコーダー書いてアセンブリ出力見て無駄が減り
実測でも速くなってるとお茶が美味い、でへへ
実測でも速くなってるとお茶が美味い、でへへ
760デフォルトの名無しさん
2011/09/22(木) 01:47:33.31761デフォルトの名無しさん
2011/10/04(火) 04:33:33.93 7zなら、パスを列挙したリストファイルを渡して圧縮させるコマンドが無かったか?
762デフォルトの名無しさん
2011/10/19(水) 17:21:06.75 zip32j.dllで同じファイルを圧縮しても、
出来るzipのCRCが毎回違うってのは正常?
WinRAR使うと毎回CRCは同じなんだが
出来るzipのCRCが毎回違うってのは正常?
WinRAR使うと毎回CRCは同じなんだが
763デフォルトの名無しさん
2011/10/19(水) 17:53:00.10 圧縮ルーチンの中で乱数使ってるんじゃないかな
解凍後のCRCが一致してれば問題なし
解凍後のCRCが一致してれば問題なし
764デフォルトの名無しさん
2011/10/19(水) 18:29:03.25765デフォルトの名無しさん
2011/10/19(水) 19:09:18.86766デフォルトの名無しさん
2011/10/20(木) 22:51:54.07 スレ違い
767デフォルトの名無しさん
2011/11/29(火) 22:44:34.18 ふと気になってzipの仕様を見ていて疑問に思ったのだけれど、
「中央ディレクトリ」の存在意義ってなんですか?
わざわざローカルファイルヘッダと分離して、しかも書庫末端に配置
させている意味がわからないです。
書庫冒頭ならここを基点にランダムアクセスがしやすい、というのは
想像できるんですが、可変長コメントを終端に許容している時点で
後ろから計算するのも非常にめんどくさいことになってますし。
どうせだし作者にメールでも投げるか、と思ったら作者亡くなってるし。
「中央ディレクトリ」の存在意義ってなんですか?
わざわざローカルファイルヘッダと分離して、しかも書庫末端に配置
させている意味がわからないです。
書庫冒頭ならここを基点にランダムアクセスがしやすい、というのは
想像できるんですが、可変長コメントを終端に許容している時点で
後ろから計算するのも非常にめんどくさいことになってますし。
どうせだし作者にメールでも投げるか、と思ったら作者亡くなってるし。
768デフォルトの名無しさん
2011/11/29(火) 23:04:07.92 LZH書庫のゼロ終端と同レベルには必要。
769デフォルトの名無しさん
2011/11/29(火) 23:11:50.61 1passで書庫作る場合、中央ディレクトリみたいのをつけようとすると
どうしてもケツにしかつけられないってだけでしょ。
1passで書庫作れるようになってるのはzipの強みの一つだと思うんだが。
例えばlhaはチェックサム書き出すために一旦ヘッダまで戻らなきゃいかんから2passになる。
圧縮データをどっかに保存しておければ1passっぽくできるけど。そのために記憶領域が必要になる。
どうしてもケツにしかつけられないってだけでしょ。
1passで書庫作れるようになってるのはzipの強みの一つだと思うんだが。
例えばlhaはチェックサム書き出すために一旦ヘッダまで戻らなきゃいかんから2passになる。
圧縮データをどっかに保存しておければ1passっぽくできるけど。そのために記憶領域が必要になる。
770767
2011/11/29(火) 23:20:10.21 解凍することだけ考えてて圧縮のこと何も考えてなかった。
なるほど。確かに1passで作れるっていうその点は強みですね。
すごいスッキリしました。ありがとう。
なるほど。確かに1passで作れるっていうその点は強みですね。
すごいスッキリしました。ありがとう。
771デフォルトの名無しさん
2011/11/29(火) 23:44:11.23 ケツにもコメントの長さつけてくれれば
後ろから読むのが楽だったと思わずにはいられない
後ろから読むのが楽だったと思わずにはいられない
772デフォルトの名無しさん
2011/11/30(水) 02:12:31.07 ファイル先頭に置くと、ファイルを追加するたびに書庫ファイル全体を
書き直さないといけなくなるよ。
末尾にあれば追加された分と中央ディレクトリ分だけで済む。
書き直さないといけなくなるよ。
末尾にあれば追加された分と中央ディレクトリ分だけで済む。
773デフォルトの名無しさん
2011/11/30(水) 03:49:27.68 インデックスは末尾が当然だな。もしくはシーケンシャルアクセスで良いならTARのようにする。
774デフォルトの名無しさん
2011/11/30(水) 13:05:45.71 圧縮と暗号化を両方行いたい場合
先に暗号化してから圧縮すると
圧縮してから暗号化したときに比べて
サイズがかなり大きくなってしまいます
圧縮と暗号化を同時に行うアルゴリズムだと
効率は良くなるのでしょうか?
先に暗号化してから圧縮すると
圧縮してから暗号化したときに比べて
サイズがかなり大きくなってしまいます
圧縮と暗号化を同時に行うアルゴリズムだと
効率は良くなるのでしょうか?
775デフォルトの名無しさん
2011/11/30(水) 13:11:04.03 符号化と暗号化を勉強しろw
776デフォルトの名無しさん
2011/11/30(水) 13:22:50.71777デフォルトの名無しさん
2011/11/30(水) 13:25:01.15 まあアルゴリズムの話はともかく
どうして暗号化ツールには圧縮機能がなくて
圧縮ツールには暗号化機能がないのはなぜ?
どうして暗号化ツールには圧縮機能がなくて
圧縮ツールには暗号化機能がないのはなぜ?
778デフォルトの名無しさん
2011/11/30(水) 14:22:37.76 君が馬鹿だからそういう疑問が出る。
>>775
>>775
779デフォルトの名無しさん
2011/11/30(水) 14:57:55.25 一番の問題点は仕様がアホみたいに巨大かつ肥大化を続けてることだろう
780デフォルトの名無しさん
2011/11/30(水) 15:28:11.94 モチはモチ屋的な思考する人が多いからじゃねーかと思ったが、
圧縮ソフトは暗号化機能つけてるのも結構あるよね。
圧縮ソフトは暗号化機能つけてるのも結構あるよね。
781デフォルトの名無しさん
2011/11/30(水) 15:44:18.70 圧縮するときの符号化した辞書を暗号化すれば医院で内科医
782デフォルトの名無しさん
2011/11/30(水) 15:53:09.43 馬鹿には無理
783デフォルトの名無しさん
2011/12/02(金) 05:52:08.41 ちょっとした思いつき
ABCCABBCA
というような並びのデータがあるとして、このままではあまり圧縮に適してないが
これを
ABC
CAB
BCA
と並べて右上から右下斜めに読むと
CBBAAACCB
となって圧縮しやすくなる
これを斜め読みアルゴリズムと名付けた
データを二次元に展開すると読み方は横読み、右下斜め読み、縦読み、左下斜め読みの4種類定義できるが
この4種類を順番に適用して圧縮を繰り返すと、可逆を維持したままファイルサイズをものすごく小さくできるかもしれない
これを回転圧縮法と名付けた
暇な人は論文でも書いてみたらお金になるかも
ABCCABBCA
というような並びのデータがあるとして、このままではあまり圧縮に適してないが
これを
ABC
CAB
BCA
と並べて右上から右下斜めに読むと
CBBAAACCB
となって圧縮しやすくなる
これを斜め読みアルゴリズムと名付けた
データを二次元に展開すると読み方は横読み、右下斜め読み、縦読み、左下斜め読みの4種類定義できるが
この4種類を順番に適用して圧縮を繰り返すと、可逆を維持したままファイルサイズをものすごく小さくできるかもしれない
これを回転圧縮法と名付けた
暇な人は論文でも書いてみたらお金になるかも
784デフォルトの名無しさん
2011/12/02(金) 06:02:58.46785デフォルトの名無しさん
2011/12/02(金) 11:35:07.19 馬鹿には無理
786デフォルトの名無しさん
2011/12/02(金) 12:16:26.63 俺も考えたぜ!
1 はなっから元のデータを線形合同法で作る
2 シード値のみ保存
やばい 1/10000000000ぐらいいく
誰か論文作れ
1 はなっから元のデータを線形合同法で作る
2 シード値のみ保存
やばい 1/10000000000ぐらいいく
誰か論文作れ
787デフォルトの名無しさん
2011/12/02(金) 12:40:08.63 それは似たようなことをIBMが専用チップを作ってやろうとしてたね
788デフォルトの名無しさん
2011/12/02(金) 12:44:45.72 馬鹿には無理
789デフォルトの名無しさん
2011/12/02(金) 14:28:29.13 データを最適化する手法は昔からあるわけで、恥ずかしいから馬鹿は黙っておけw
790デフォルトの名無しさん
2011/12/03(土) 11:06:16.82 静止画・動画とかアプリケーションが既知の場合なら、データの統計的性質分かってるわけだから、予め超巨大な辞書を作ってみんなで共有しておけば、めっちゃ圧縮できそうな気がするんだけど。
なんで未だに離散コサイン変換+ベクトル量子化で頑張ってるの?
詳しい人おしえて!
なんで未だに離散コサイン変換+ベクトル量子化で頑張ってるの?
詳しい人おしえて!
791デフォルトの名無しさん
2011/12/03(土) 11:19:41.21 それってさ、「ここのURLにデータがあるよ」ってアドレス渡す事と同義なんだよ
データ自体が小さくなるわけじゃないんだ
データ自体が小さくなるわけじゃないんだ
792デフォルトの名無しさん
2011/12/03(土) 11:26:41.08 量子テレポーテーションをうまく応用すれば圧縮に使えるのではないか。
793デフォルトの名無しさん
2011/12/03(土) 12:05:45.58 >>791
データ自体が小さくなるってことじゃね?
画像の元サイズX、圧縮後のサイズY、枚数N、辞書のサイズZとすると
N*X > N*Y + Z
になってれば圧縮できてるよね。
Nがでかけりゃでかいほど、辞書でかくしてもいいじゃん。
1G
データ自体が小さくなるってことじゃね?
画像の元サイズX、圧縮後のサイズY、枚数N、辞書のサイズZとすると
N*X > N*Y + Z
になってれば圧縮できてるよね。
Nがでかけりゃでかいほど、辞書でかくしてもいいじゃん。
1G
794デフォルトの名無しさん
2011/12/03(土) 12:22:40.45 研究発明にはこういう馬鹿も必要だ
795デフォルトの名無しさん
2011/12/03(土) 12:49:44.40 しかも、辞書分のZを全員が共有できてるという前提であれば、
N*X > N*Y
って、すごい圧縮できそうやん!
コサイン基底なんか使わずに、10GByte分くらいの過剰な基底を用意しとけば、画像なんか超小さくなるべ!
N*X > N*Y
って、すごい圧縮できそうやん!
コサイン基底なんか使わずに、10GByte分くらいの過剰な基底を用意しとけば、画像なんか超小さくなるべ!
796デフォルトの名無しさん
2011/12/03(土) 18:32:29.10 >>790
別に頑張ってないよ。
もっと先の技術はちゃんとあるが、馬鹿は知らなくていいよ。
ハッシュ値(またはそれに類するもの)で元のデータを引っ張って来れる仕組みを圧縮と見なすなら、
ファイル共有ソフトは一種の圧縮であり、winnyなりshareなり、既にある。
別に頑張ってないよ。
もっと先の技術はちゃんとあるが、馬鹿は知らなくていいよ。
ハッシュ値(またはそれに類するもの)で元のデータを引っ張って来れる仕組みを圧縮と見なすなら、
ファイル共有ソフトは一種の圧縮であり、winnyなりshareなり、既にある。
797デフォルトの名無しさん
2011/12/03(土) 18:34:54.58798デフォルトの名無しさん
2011/12/03(土) 19:04:11.19 昔、「ハノイ圧縮」ってネタがあったけど、これって辞典型の究極と言える。
ところが、このハノイ圧縮で、世界中のデータを圧縮していくと、
たちまち圧縮できなくなっていき、かえってサイズが増えることになる。
ちょっと試算してみるとわかるけど、
データ圧縮が圧縮となる世界って、非常に狭いんだよね。
ハノイ圧縮で圧縮できている範囲だけ利用するとしても、
結局それは、現在の他のデータ圧縮法よりは多少マシかなぁ程度。
ハノイ圧縮とLZ78を比べると面白いかもしれない、程度。
ところが、このハノイ圧縮で、世界中のデータを圧縮していくと、
たちまち圧縮できなくなっていき、かえってサイズが増えることになる。
ちょっと試算してみるとわかるけど、
データ圧縮が圧縮となる世界って、非常に狭いんだよね。
ハノイ圧縮で圧縮できている範囲だけ利用するとしても、
結局それは、現在の他のデータ圧縮法よりは多少マシかなぁ程度。
ハノイ圧縮とLZ78を比べると面白いかもしれない、程度。
799デフォルトの名無しさん
2011/12/03(土) 20:28:46.35 >>796
圧縮アルゴリズム構築時に既知のデータと、圧縮時に未知のデータと分けて考える必要があるね。
ちなみに非可逆ね。
アルゴリズム構築時にハッシュテーブル作っておいて、様々な未知データに対してハッシュ値計算してハッシュテーブルを引く。
ハッシュテーブルにハッシュ値がなかったら、圧縮画像=真っ黒画⇒像残差デカイってこと。
残差小さくしつつ圧縮率上げるんだから、非可逆の圧縮アルゴリズム考えてる人たちは、この間を責めてるわけだよな。
COS関数という既知の基底以外でも、ウェーブレットみたいに基底も学習しておけば、圧縮率上がるケースも当然あるだろうね。
圧縮アルゴリズム構築時に既知のデータと、圧縮時に未知のデータと分けて考える必要があるね。
ちなみに非可逆ね。
アルゴリズム構築時にハッシュテーブル作っておいて、様々な未知データに対してハッシュ値計算してハッシュテーブルを引く。
ハッシュテーブルにハッシュ値がなかったら、圧縮画像=真っ黒画⇒像残差デカイってこと。
残差小さくしつつ圧縮率上げるんだから、非可逆の圧縮アルゴリズム考えてる人たちは、この間を責めてるわけだよな。
COS関数という既知の基底以外でも、ウェーブレットみたいに基底も学習しておけば、圧縮率上がるケースも当然あるだろうね。
800デフォルトの名無しさん
2011/12/03(土) 20:31:16.19 ちなみに、8x8の画像だったら64次元の基底があれば、任意の画像を線形和で表せるけど、
基底を10000万個用意しておいても良いわけだ。
圧縮したい画像の枚数が多ければ、10000万個基底用意しておいたとしても、勝てる場合がありそう。
基底を10000万個用意しておいても良いわけだ。
圧縮したい画像の枚数が多ければ、10000万個基底用意しておいたとしても、勝てる場合がありそう。
801デフォルトの名無しさん
2011/12/03(土) 20:49:07.46 >>800
ちなみに、10000次元の係数の大半がゼロになるように、L1正則化でもかけて、基底学習できればよさげだな。馬鹿馬鹿いってるやついるけど、血の巡り悪そうだな。
ちなみに、10000次元の係数の大半がゼロになるように、L1正則化でもかけて、基底学習できればよさげだな。馬鹿馬鹿いってるやついるけど、血の巡り悪そうだな。
802デフォルトの名無しさん
2011/12/03(土) 21:55:07.14803デフォルトの名無しさん
2011/12/03(土) 22:49:37.03 このデータがこのシステムでこれだけのサイズになりましたっていう実測値だしてくれよ
804デフォルトの名無しさん
2011/12/03(土) 23:10:54.75 WikipediaデータすべてがLinuxで1MBになった。
805デフォルトの名無しさん
2011/12/03(土) 23:20:20.81 話にならんな
806デフォルトの名無しさん
2011/12/03(土) 23:24:13.18 >>805
bzip2を知らんのか。
bzip2を知らんのか。
807デフォルトの名無しさん
2011/12/03(土) 23:58:56.90 話にならんって言ってんだ
流れを読めよ
流れを読めよ
808デフォルトの名無しさん
2011/12/04(日) 00:04:18.76 >>807
お前Linuxのインストールで躓いたくちだろ。
お前Linuxのインストールで躓いたくちだろ。
809デフォルトの名無しさん
2011/12/04(日) 00:07:16.85 流れが読めない…
810デフォルトの名無しさん
2011/12/04(日) 00:17:57.42 今のLinuxのインストールにどうやって躓く要素があるんだ?
811デフォルトの名無しさん
2011/12/04(日) 00:19:41.82 Linuxができないのに圧縮を語るとは世も末。
812デフォルトの名無しさん
2011/12/04(日) 00:24:16.25 LHA、ZIP、GZIPをはじめとする圧縮ユーティリティーの大部分はLinuxで開発された。
まずLinuxの勉強からやり直せ。
まずLinuxの勉強からやり直せ。
813デフォルトの名無しさん
2011/12/04(日) 00:25:10.02 Linuxは俺が教えた
814デフォルトの名無しさん
2011/12/04(日) 00:28:07.22 これからはLinuxの時代
815デフォルトの名無しさん
2011/12/04(日) 00:56:55.25 >>812
えっ
えっ
816デフォルトの名無しさん
2011/12/04(日) 00:58:14.31 >>786の要望に応えられる圧縮をLinuxで作ってくれよ。
817デフォルトの名無しさん
2011/12/04(日) 00:59:28.04 >>815
お前は圧縮ユーティリティーがCUIとして作られたことも知らないのか。
お前は圧縮ユーティリティーがCUIとして作られたことも知らないのか。
818デフォルトの名無しさん
2011/12/04(日) 00:59:33.37 bzip2を知らんのか。
819デフォルトの名無しさん
2011/12/04(日) 01:00:20.11 馬鹿には無理
820デフォルトの名無しさん
2011/12/04(日) 01:00:53.14 CUI=Linuxだ(キリッ)
821デフォルトの名無しさん
2011/12/04(日) 01:03:49.60 >>816
それは車輪の再発明と言って優秀なリソースを分散させる結果となる。
それは車輪の再発明と言って優秀なリソースを分散させる結果となる。
822デフォルトの名無しさん
2011/12/04(日) 01:07:07.61 できないんならひっこんでろ。
823デフォルトの名無しさん
2011/12/04(日) 01:09:20.06 >>822
bzip2を知らんのか。
bzip2を知らんのか。
824デフォルトの名無しさん
2011/12/04(日) 01:11:00.95 できてないじゃん。
825デフォルトの名無しさん
2011/12/04(日) 01:13:36.24 最近ム板に変なのが住み着いて、ほとんどのスレが機能しなくなってるのは
なにか対策を考えて欲しい。
もう2chでは無理かね。
なにか対策を考えて欲しい。
もう2chでは無理かね。
826デフォルトの名無しさん
2011/12/04(日) 01:13:58.37 >>817
>LHAは、奥村晴彦が開発したアルゴリズムをもとに、吉崎栄泰がMS-DOS向けに開発したもので、1988年にパソコン通信で初公開された。
ttp://ja.wikipedia.org/wiki/LHA
>LHAは、奥村晴彦が開発したアルゴリズムをもとに、吉崎栄泰がMS-DOS向けに開発したもので、1988年にパソコン通信で初公開された。
ttp://ja.wikipedia.org/wiki/LHA
827デフォルトの名無しさん
2011/12/04(日) 01:16:49.73 フォントですか?
828デフォルトの名無しさん
2011/12/04(日) 03:17:42.97 >>800
だから、やってみろよ。自分が馬鹿だったってわかるから。
だから、やってみろよ。自分が馬鹿だったってわかるから。
829デフォルトの名無しさん
2011/12/04(日) 03:29:31.18 >>802
全然違うよ。
JPEGのエンコーダを書いたこともなく、ろくに理解もしないで何言っているの?
統計的性質なんて関係ないから。
>ちゃんと辞書のサイズZって書いてあるだろ。
共有しているなら、辞書がネットワーク上にあったっていいだろ。
ローカルストレージに限定する理由はない。
>ハッシュの先に格納されてるデータがあって、そこのサイズも考慮すれば、それって圧縮できてないよね。
本当に馬鹿だな。
ネットワーク全体で冗長度が下がっていれば、それは圧縮と同じなんだよ。
ハッシュは、辞書の符号化に相当する。
全然違うよ。
JPEGのエンコーダを書いたこともなく、ろくに理解もしないで何言っているの?
統計的性質なんて関係ないから。
>ちゃんと辞書のサイズZって書いてあるだろ。
共有しているなら、辞書がネットワーク上にあったっていいだろ。
ローカルストレージに限定する理由はない。
>ハッシュの先に格納されてるデータがあって、そこのサイズも考慮すれば、それって圧縮できてないよね。
本当に馬鹿だな。
ネットワーク全体で冗長度が下がっていれば、それは圧縮と同じなんだよ。
ハッシュは、辞書の符号化に相当する。
830デフォルトの名無しさん
2011/12/04(日) 06:10:22.03 >>829
>統計的性質なんて関係ないから。
JPEGエンコーダってDCTしてハフマン符号化じゃねーのかよ。
統計的性質使って圧縮してんだろ、馬鹿か?
全然違うって、何が違うか指摘しろよ。議論の基本を知らないのか?
>共有しているなら、辞書がネットワーク上にあったっていいだろ。
>ネットワーク全体で冗長度が下がっていれば、それは圧縮と同じなんだよ。
ならハッシュ値計算してデータをひっぱってくるシステムも、圧縮できているわけだな。
今現在ある全ての画像を一箇所に溜めて、未来に撮影される画像もそこに含まれていれば、圧縮できていると言えるだろうな。
とりあえず、学習データで圧縮アルゴリズム作って、検証用のデータで精度を測るって、基本は理解してるか?
>統計的性質なんて関係ないから。
JPEGエンコーダってDCTしてハフマン符号化じゃねーのかよ。
統計的性質使って圧縮してんだろ、馬鹿か?
全然違うって、何が違うか指摘しろよ。議論の基本を知らないのか?
>共有しているなら、辞書がネットワーク上にあったっていいだろ。
>ネットワーク全体で冗長度が下がっていれば、それは圧縮と同じなんだよ。
ならハッシュ値計算してデータをひっぱってくるシステムも、圧縮できているわけだな。
今現在ある全ての画像を一箇所に溜めて、未来に撮影される画像もそこに含まれていれば、圧縮できていると言えるだろうな。
とりあえず、学習データで圧縮アルゴリズム作って、検証用のデータで精度を測るって、基本は理解してるか?
831デフォルトの名無しさん
2011/12/04(日) 08:54:51.86 ↑
こいつ最高にアホ(AAry
こいつ最高にアホ(AAry
832デフォルトの名無しさん
2011/12/04(日) 09:36:28.61 とりあえず、ハッシュマップの話は飽きたよ。
100枚画像があって、20枚重複してて、実質80枚分のデータだったら、サイズ0.8倍になるのね。
DCTとハッシュマップの間を責めれば圧縮率あがるだろってことでしょ?
100枚画像があって、20枚重複してて、実質80枚分のデータだったら、サイズ0.8倍になるのね。
DCTとハッシュマップの間を責めれば圧縮率あがるだろってことでしょ?
833デフォルトの名無しさん
2011/12/04(日) 12:21:13.24 >>830
初心者はWindowsでも使ってろ。
初心者はWindowsでも使ってろ。
834デフォルトの名無しさん
2011/12/04(日) 17:45:11.22 >>830
>JPEGエンコーダってDCTしてハフマン符号化じゃねーのかよ。
そうだよ。で、君はJPEGエンコーダぐらい書いたことあるんだよね?
俺はちゃんと0から自作したことあるよ。
>統計的性質使って圧縮してんだろ、馬鹿か?
どこが?
DCTは統計とは関係がないし、ハフマン符号は対象データの中での出現頻度であって、
先の様々な画像の統計的性質とは無関係だよ。
量子化テーブルをどういうものにするかは、ある統計的な性質と関係あるが、
それは画像の統計的性質じゃなくて、人間が見たときに許容できる誤差としての統計的性質。
>全然違うって、何が違うか指摘しろよ。議論の基本を知らないのか?
こんな枯れた技術は議論する価値もないだろ。
調べればわかるし、わからないような馬鹿や、調べることもできないような馬鹿はここに来るな。
最低限、自分のアイデアを自作してみてからここに来い。
その上で、わからないことがあれば、俺様が教えてやる。
>JPEGエンコーダってDCTしてハフマン符号化じゃねーのかよ。
そうだよ。で、君はJPEGエンコーダぐらい書いたことあるんだよね?
俺はちゃんと0から自作したことあるよ。
>統計的性質使って圧縮してんだろ、馬鹿か?
どこが?
DCTは統計とは関係がないし、ハフマン符号は対象データの中での出現頻度であって、
先の様々な画像の統計的性質とは無関係だよ。
量子化テーブルをどういうものにするかは、ある統計的な性質と関係あるが、
それは画像の統計的性質じゃなくて、人間が見たときに許容できる誤差としての統計的性質。
>全然違うって、何が違うか指摘しろよ。議論の基本を知らないのか?
こんな枯れた技術は議論する価値もないだろ。
調べればわかるし、わからないような馬鹿や、調べることもできないような馬鹿はここに来るな。
最低限、自分のアイデアを自作してみてからここに来い。
その上で、わからないことがあれば、俺様が教えてやる。
835デフォルトの名無しさん
2011/12/04(日) 17:46:44.08 webp っていいの?
持ってる jpeg ファイル全部 webp 化して
元の画像捨てても平気?
持ってる jpeg ファイル全部 webp 化して
元の画像捨てても平気?
836デフォルトの名無しさん
2011/12/04(日) 18:12:14.39837デフォルトの名無しさん
2011/12/04(日) 18:16:28.65 >>834
>DCTは統計とは関係がないし、ハフマン符号は対象データの中での出現頻度であって、
>先の様々な画像の統計的性質とは無関係だよ。
ん?関係あるよね?
なんでDCTで直行変換かますと、多くの軸の係数が0になるの?
近くのピクセルの色が似てるからだよね。
こーいうのを、人は統計的性質と呼ぶのでは?
>それは画像の統計的性質じゃなくて、人間が見たときに許容できる誤差としての統計的性質。
人の見が感じる違いと2乗誤差は違うから、そこを責めてる話もあるけど。
そこに拘らなければ、まぁ2乗誤差だろうな。
DCT後の軸の係数が小さいところを0に打ち切るだけ。
上の議論は、COS以外の基底を使って、より少ない非ゼロの軸で、2乗誤差を小さくすることが出来ないかって話じゃね?
後ろのハフマン符号化には触れてない。
>DCTは統計とは関係がないし、ハフマン符号は対象データの中での出現頻度であって、
>先の様々な画像の統計的性質とは無関係だよ。
ん?関係あるよね?
なんでDCTで直行変換かますと、多くの軸の係数が0になるの?
近くのピクセルの色が似てるからだよね。
こーいうのを、人は統計的性質と呼ぶのでは?
>それは画像の統計的性質じゃなくて、人間が見たときに許容できる誤差としての統計的性質。
人の見が感じる違いと2乗誤差は違うから、そこを責めてる話もあるけど。
そこに拘らなければ、まぁ2乗誤差だろうな。
DCT後の軸の係数が小さいところを0に打ち切るだけ。
上の議論は、COS以外の基底を使って、より少ない非ゼロの軸で、2乗誤差を小さくすることが出来ないかって話じゃね?
後ろのハフマン符号化には触れてない。
838デフォルトの名無しさん
2011/12/04(日) 18:20:06.53839デフォルトの名無しさん
2011/12/04(日) 18:24:29.29840デフォルトの名無しさん
2011/12/04(日) 18:29:21.23841デフォルトの名無しさん
2011/12/04(日) 18:34:19.38 >>840
小さくならないよ。小さくするために量子化テーブルを使うの。
馬鹿なことを書いて恥をかく前に、JPEGエンコーダぐらい自作しろよ。
基本部分は一日あればできるし、理解も深まるから、こんなスレに書き込んでいるよりずっといいぞ。
それができないような馬鹿なら、この世界に首を突っ込まない方がいい。
小さくならないよ。小さくするために量子化テーブルを使うの。
馬鹿なことを書いて恥をかく前に、JPEGエンコーダぐらい自作しろよ。
基本部分は一日あればできるし、理解も深まるから、こんなスレに書き込んでいるよりずっといいぞ。
それができないような馬鹿なら、この世界に首を突っ込まない方がいい。
842デフォルトの名無しさん
2011/12/04(日) 18:37:49.68 >>841
http://ja.wikipedia.org/wiki/%E9%9B%A2%E6%95%A3%E3%82%B3%E3%82%B5%E3%82%A4%E3%83%B3%E5%A4%89%E6%8F%9B
ほら、Wikipediaにのってるよ。
右の画像のDCTみてね!
http://ja.wikipedia.org/wiki/%E9%9B%A2%E6%95%A3%E3%82%B3%E3%82%B5%E3%82%A4%E3%83%B3%E5%A4%89%E6%8F%9B
ほら、Wikipediaにのってるよ。
右の画像のDCTみてね!
843デフォルトの名無しさん
2011/12/04(日) 18:44:10.50 さらにいうと、どんな画像食わせても、高周波数成分は小さくなる。
この大きさに合わせて量子化テーブルの値が決まってるわけだな。
おまえ、作ったことあんじゃねーの?理解せずにコード書き写しただけ?
この大きさに合わせて量子化テーブルの値が決まってるわけだな。
おまえ、作ったことあんじゃねーの?理解せずにコード書き写しただけ?
844デフォルトの名無しさん
2011/12/04(日) 18:51:27.51845デフォルトの名無しさん
2011/12/04(日) 18:55:04.30 >>843
>この大きさに合わせて量子化テーブルの値が決まってるわけだな。
違うよ。
実際には、高周波成分に大きな値が来ることが多々ある。
低周波の値より、高周波の値の方が無視できるから、量子化テーブルの係数が大きくなるの。
低周波は数値が小さくても無視しない方がいいから、テーブルの係数が小さい。
>この大きさに合わせて量子化テーブルの値が決まってるわけだな。
違うよ。
実際には、高周波成分に大きな値が来ることが多々ある。
低周波の値より、高周波の値の方が無視できるから、量子化テーブルの係数が大きくなるの。
低周波は数値が小さくても無視しない方がいいから、テーブルの係数が小さい。
846デフォルトの名無しさん
2011/12/04(日) 18:55:58.56847デフォルトの名無しさん
2011/12/04(日) 18:57:19.48848デフォルトの名無しさん
2011/12/04(日) 18:57:47.70849デフォルトの名無しさん
2011/12/04(日) 19:03:34.67 >>846
>大体、低周波数が大きくならないなら、DCTする意味ねーだろ。
JPEGにおいてDCTは高周波成分と低周波成分を分ける意味しかない。
つまり、どの情報を捨てるかというフィルタ(後段の量子化テーブル)を使って、圧縮率を上げている。
(他にも色情報を落とすとかもあるが)
変換誤差があるものの、DCT自体はnear可逆変換なので、それだけでは圧縮にならない。
>大体、低周波数が大きくならないなら、DCTする意味ねーだろ。
JPEGにおいてDCTは高周波成分と低周波成分を分ける意味しかない。
つまり、どの情報を捨てるかというフィルタ(後段の量子化テーブル)を使って、圧縮率を上げている。
(他にも色情報を落とすとかもあるが)
変換誤差があるものの、DCT自体はnear可逆変換なので、それだけでは圧縮にならない。
850デフォルトの名無しさん
2011/12/04(日) 19:17:15.10 >>849
そんなはずはない。
色んなソフトで使われてる係数は、「頻度の逆数x視覚への影響」で決まってるはずだぞ。
つまり、基底組み替えた結果、スペクトルに偏りがあるってのは重要なんだよ。
どっかに、量子化係数の決め方の解説があったが、見つからんな。
そんなはずはない。
色んなソフトで使われてる係数は、「頻度の逆数x視覚への影響」で決まってるはずだぞ。
つまり、基底組み替えた結果、スペクトルに偏りがあるってのは重要なんだよ。
どっかに、量子化係数の決め方の解説があったが、見つからんな。
851デフォルトの名無しさん
2011/12/04(日) 19:21:25.29 この話って、そもそも基本なはずだが。
つーか仕事でやってんのに、こーいうの理解してないの?
流石に周波数分離するだけってのはないだろ。
音の圧縮だって同じじゃん。
つーか仕事でやってんのに、こーいうの理解してないの?
流石に周波数分離するだけってのはないだろ。
音の圧縮だって同じじゃん。
■ このスレッドは過去ログ倉庫に格納されています
ニュース
- 高市首相の答弁書に「台湾有事答えない」と明記 存立危機発言当時 ★2 [蚤の市★]
- 【ド軍】山本由伸、WBC出場を決断!ドジャースが本人の意向を尊重、佐々木朗希はチームが故障歴を懸念で不参加 [鉄チーズ烏★]
- 米大統領報道官「日本と強固な同盟維持、中国とも協力」 [少考さん★]
- JA全農が「新おこめ券」…来年9月末の有効期限を新設、必要経費のみ上乗せ ★2 [蚤の市★]
- ミス・ユニバース フィンランド代表の「つり目」写真が波紋… 本人釈明も批判やまず 協会謝罪「徹底的に検証」へ [冬月記者★]
- 【テレビ】粗品「THE W」バッサリ「おもんない、レベル低い」審査員就任で「日テレが“血の海”に…」 [湛然★]
- キ...キャ...キャ...キャン...
- 自衛隊員が民間人を刺殺した事件ってもはや個人の問題ではないじゃん
- Z世代ってこれ何かわからないってマジ?!
- 【悲報】女さん「ハローワークで仕事を探してる3-40代の中年男性いるでしょ。あれ何?」 [483447288]
- ( ・᷄ὢ・᷅ )おう
- ( ・᷄ὢ・᷅ )博士メロつき界隈
