連番のH画像/動画を一気にダウンロードする7.5 [無断転載禁止]©2ch.net
>>49
自動化です。手動ならばchromeの名前を付けて保存(ウェブページ、完全)でいけました。
>自動化したいなら少なくともjsonがわからないと無理
UNIXの兄貴でも無理なのか…なら諦めるっす >>50
ああ、そういう意味じゃなくて君がプログラム書くなら最低でもjsonでのやりとりわからないと無理だなって話 誰でも簡単にパソコン1台で稼げる方法など
参考までに、
⇒ 『宮本のゴウリエセレレ』 というブログで見ることができるらしいです。
グーグル検索⇒『宮本のゴウリエセレレ』
02C03Y9NN9 今までgui4ehgm使用してどのページからでも
EXをDL出来てたのに、好きなページから落そうとするとエラー出るようになった
タイトルの最初ページからスタートすると落とせるが途中でエラーになったらまた1からスタートせにゃならん
EX仕様かわった?任意のページからサクサク落とせる方法ない? 知り合いから教えてもらったパソコン一台でお金持ちになれるやり方
時間がある方はみてもいいかもしれません
グーグルで検索するといいかも『ネットで稼ぐ方法 モニアレフヌノ』
EMMLP ...そうだよな...もう連番のH画像を一気にダウンロードすることに注ぐ余分なスキルがある時代じゃないよな ていうか最近連番じゃなくてハッシュ値みたいなランダムな値だったりしてやりにくい ギャラリーのトップのURL(e-hentai.org/g/999999/123456789a/とか)をもとにして40ページ目とかのURLをスマートに取得する方法ってないの? 人間と同じ手段踏む必要あるよね?
APIとかで取得はできないのかな それページ数少ないじゃん
200とか300とかあると直接は取得できなくない? ああ、意味がわかった
/1346281-40以降がないから
/1346826/46dc25d935/?p=5などから取得するしかないってことね
ほかの方法は知らないな リニューアルしてから一部のページがソフトからだけ404になるんだが同じような人いないかな ブラウザでロケーションバーのURLに手打ちで「&inline_set=dm_t」とか追加して飛ぶと404になるのは気が付いた。
これを「&inline...」とするとOK。URIのデコード処理がしょぼくれてるんだと思われる。 うーんその手のHTMLのエンコードデコードあたり関係なく、ただ作品の〇〇ページ目のURLに飛ぶだけでも404になっちゃうんだけど・・・
プログラムの書き方が悪いだけなんかなあ 俺ん所のDLスクリプトは以前と同じだけど500P弱のアンスリウムは問題なかったな。
400番台のレスポンスもproxy切り替えながらリトライした上でレポート&スキップする作りなんだが。 あっちも試験運用始めました状態だろうし移行期には思わぬ事にいろいろと出くわすだろね。 Perkで取得できるリミットを拡張してると、前まではhath_perksのクッキー保有してたらダウンロードできたけど、それだけじゃできなくなってない?
確認できる人いたらお願いします 地味にカテゴリ選択ボタンの色を変えて来てるし。どこ弄ってんだよ。 >>77だけど、skっていうクッキーも必要みたい
参考までに 思い付きで「&inline_set=tl_e」「&inline_set=tl_j」を試したらタイトル表示設定が切り替わったよ。 wget でダウンロードできるのに lynx でできないって、なんなんだろうな。
LWP でさえ、wget に偽装すればできるのに。
いや、E-Hentai のことじゃないんだけど。 https://t.co/xxe8O7Rzfu 👀
Rock54: Caution(BBR-MD5:b73a9cd27f0065c395082e3925dacf01) これ頼みます。
ttp://www.bobx.com/av-idol/touka-rinne/photoset/fetibox-2018-07-27-0-2-8.html >>83
サムネの下の[height×width]と
画像単独ページの実際の縦横の値が全然ちがう。 https://bpub.jp/bookbeyond/item/500000513270
↑こういう漫画の画像って直接取得すると細かいチャンクにバラバラに分割された画像になってしまうんだけど
この画像をブラウザがどんな手段で復元してるか分かる人いません? canvasじゃね?
Chrome/FirefoxならCtrl+Shift+Iで見てみ >>86
ビンゴでした。
でもこれはどうも手動じゃないと取得できませんね…
残念。 復活してた。
見れねーじゃん、とか思ってたクッキーが賞味期限切れしてただけだった THEDOUJIN.comって一括ダウンロード出来ない?
古いツールならあったけどサムネしか保存されない… >>83
みんなしてダウンローダー使って無茶するから管理人ブチ切れよったで
Bobxの画像大きく表示できないんだが俺だけ? [無断転載禁止]bbspink.com
http://mercury.bbspink.com/test/read.cgi/girls/1574222848/ 今年一年、無病息災家内安全でありますようにパンパン 連番のエロ画像かなつかしいな
今なら簡単にできるな 昨日からehgmが使えなくなったんだけど使えてる人いますか? なんやらかんやらあってWeb漫画サイトをあちこち巡る事が多くなった昨今、
且つてexで培った「連番でヌいたろ」精神がムクムクと頭をもたげる訳で、
自分が巡回するサイトはあらかた対応できたんだがPASHが判らん。
GWの暇つぶしにするつもりだけど見通しが立たないんで誰かヒントでもくれ。
>>85もPASHと同じpublus系だけどearthstartと同レベルっぽいからイケるわ。
だが学研に興味はない。上池台に住んでた頃から。 ところで、なんだけど。
あちこちのサイトに上がってるエロ漫画画像の「DL版」って元はどんなものなの?
まさか画像ファイルの形式で売ってるサイトがあるわけでもないだろうに、どこで手に入れてるのかな、と思って。
電子書籍のスクリーンショットか何かなの?? >>99
いくら何でもスレチ過ぎるって気付かんか? DLsiteなどはツールで抜けるらしい
BOOTH通販やファンティア[Fantia]だとpdf+zip形式で買える GWもロスタイム。自分の能力ではデコードの糸口も見出せそうにないのでPASHは断念した。
今回Web漫画サイトを回って知ったのは、この手の行為に対して意外と大手漫画出版社のガードが
チープな事。ほぼノーガードですって場合も多い。「ウチの本業じゃない所にコストを掛けるより
この程度の解像度でよきゃ欲しい奴は持ってけ」方式なのか。
手間と言えるものを掛けたのはチマチマとブラウザのデバッグツールでJavascriptを追ったbinb系と
力技でスクランブルパターンの計算方を探した(簡単な方の)publus系。
後は思い出した時にでも海外掲示板でそのスジのツワモノ達の解析談義を検索するよ。
久々の連番スレはもう廃墟かと思いきや生存者が居てなにより。それでは良い終末を! csvファイルにURLが記録されている画像をダウンロードするには、何か良い方法はありますか?
1行の構成は次のような感じです
url1, url2, url3 ... 最大でurl10まで
これが複数行あります あっと、wgetのhelpの中にありました(見落としてた)
wget --input-file=hoge.csv
ですね いや、wgetだと1ファイル/1行しかダメですね
カンマあるいはスペース区切りで複数URLが1行にあると、ダウンロードできない
csvファイルを列ごとに別ファイルにするのは最終手段にしたいので、
何か良い方法は無いでしょうか? csvファイルのカンマ区切りを、スペースに置換して保存しても、
wget -i hoge.csv
を実行するとスペースが%20でwgetに渡され、1つの繋がったURLと見なされてForbiddenになってしまう そこはスペースではなく改行。
tr ',' '\012' | wget -i -
みたいな感じか。 おお、trなんてコマンドがあるのですね
cat hoge.csv | tr ',' '\012' | wget --input-file=-
で出来ました
ありがとうございます テクマクマヤコン、テクマクマヤコンと唱えて服を脱ぎます 久しぶりの書き込みが、と思ったらなんのこっちゃ。
canvasは本体ドキュメントの場所と異なるドメインから持ってきたコンテンツを描画すると「穢れ」る訳で、
そうやって汚染されたcanvasからはデータを抜けなくなるよね。
まぁユーザーの手操作で「名前を付けてファイルに保存」する事は出来るんだけど
解決策の一つは代理Webサーバをローカルに立てて異なるドメインとのやり取りを仲介させ、
その際に自前のスクリプトを注入してドキュメント内のリンクを書き換えてしまうことで
ブラウザには同じドメインのコンテンツの様に見せかけて穢れは無いと誤解させること。
この仕組みを作っておけば、この板の趣旨的には結構便利。
もう一つ、二次元画像ならクロスドメインに厳しいブラウザなど使わずに自前で直に編集出力すること。
各種web漫画サイトなら自分はnode+sharpでふじこlp H画像じゃないけど誰かComicWalkerのAPI知らね?
ニコ静のofficials系とcontents/<ID>/episodes系 サーバ共用してるComicWalkerとニコ静は画像取得表示部分は共通化できるんだけど
全部APIからJSON読んで完結できるニコ静に対して
HTML本文GETしてString.match()して〜の工程が頭悪そうで何とかしたいの
だって見るモノ無いとは言え同じ元ネタならスマートに共通化したいじゃん!
把握して使ってるのは今これだけ
/comicwalker-api.nicomanga.jp/api/v1/comicwalker/contents/<contentID>
/comicwalker-api.nicomanga.jp/api/v1/comicwalker/episodes/<episodeID>
/comicwalker-api.nicomanga.jp/api/v1/comicwalker/episodes/<episodeID>/frames
/comic-walker.com/v1/endbook?episode_id=<episodeID>
で、ニコ静の次の機能に相当するAPIを知りたいの
/api.nicomanga.jp/api/v1/app/manga/officials[/<deptID|directory>]
/api.nicomanga.jp/api/v1/app/manga/officials/<deptID>/contents[?offset=<from>&limit=<count>]
/api.nicomanga.jp/api/v1/app/manga/contents/<contentID>/episodes
知ってたら教えて♪ 知らなかったらおとといレスくれるとチョー嬉しいんだけど♡ Node.js とwork_crawlerで落とせたけど
cd /work_crawler-master/comic.ja-JP/ && node ComicWalker "とある科学の心理掌握"
nico_seiga.js
ComicWalker.js
この人みたいに素直に2つ作れよw いや自分のもnodejsで画像処理部以外は別々のプラグインで作ってそれはそれで機能してるのよ
でもコードが美しくないし、それにCWって再配信モノとかでごちゃごちゃして見にくいじゃん
それもあってニコ静しか見てなかったんだけど最近CWの方が更新日の早いヤツがあるって
気付いて、この際自分のコードを素敵にメンテしたいなって思ったのよ あ、書いてて気が付いたけど閲覧したり落としたりする処理は綺麗なもんで不満はなく
そこに至るまでの更新作品とか公開話一覧とかをブラウズする用途のAPIの話ね work_crawlerはelectronのguiでjson検索を作ってるみたい
とある科学の心理掌握 ComicWalker last_update 2022/10/05 第12話後編 建設的レス感謝
Gitでソースを見たけど残念ながら指定されたepisodeIDでframesを取るAPIしか使ってなかった
むしろCW的にAPIサーバのssl.seiga.nicovideo.jpは旧仕様なのでその内無くなっちゃうかも
自分のはEx含めて画像を連番で落とすだけのダウンローダーじゃなくて
ブラウザ経由で選択や閲覧できるようにするCORS回避プロキシっぽい機能を持ってるんですよ
そこに清濁混合で各サイト用に作ったプラグイン群が動的に刺さる感じ
サイトを直接表示しないんであの手この手のエロ動画とかポップアップは出ないし
公式サイトでも無用な広告画像や埋め込みツイートとか読まないので通信もエコ(自分回線細いんで)
特にアカウント持ってないニコ静は公式ページからじゃ閲覧できないのでこれ頼み 俺は自作でもdownload.txtを作って差分を取るぐらいしかやらないから
話が噛み合わないな
DATA : exhentai.org/g/2328720/23baa0b43e/
DATA : [虫無心] 奴隶-ボア・ハンコック (ワンピース) 20
DATA : END
DATA : exhentai.org/g/2328691/61dd1d0061/
DATA : ちえりさんは負けられない!3 -夫公認で誰の精子でも受精する変態便器 69
DATA : END 公式系漫画板の連中は「アレおもしれえコレ嫌い」しか頭にないし
不法系漫画板は「死んだ生き返った更新マダー」しか関心なさげなんで
久しぶりにここを思い出しスレチ承知で聞いてみた
連番スレとスレの皆々様には益々の御健勝と御多幸御活躍をお祈り申し上げる 今日はシュワルツ変換を覚えました^^
my @tmp; for(@fields){push @tmp, [$_, $_->[9]];}
@tmp = sort {$a->[1] <=> $b->[1]} @tmp;
my @fields2; for(@tmp){push @fields2, $_->[0];} # シュワルツ変換
my @fields3 =
map $_->[0],
sort { $a->[1] <=> $b->[1] }
map [ $_, $_->[9] ],
@fields; 今日はYAML::Dumperを覚えました^^
use v5.34;
use utf8;
use Encode qw/encode decode/;
sub de { decode("shiftjis", shift) } sub en { encode("shiftjis", shift) }
sub de8 { decode("utf8", shift) } sub en8 { encode("utf8", shift) }
use open IO => qw/:utf8 :std/;
use JSON;
use YAML::Dumper;
my $yaml = YAML::Dumper->new(); $yaml->indent_width(4);
use WWW::Mechanize;
my $mech = WWW::Mechanize->new();
$mech->agent_alias('Windows Mozilla');
$mech->get(${url});
my $content = de8($mech->content);
my $json1 = from_json($content);
my $json_text = to_json( $json1 );
my @arr = split(/,/, $json_text, -1);
print $yaml->dump( \$json1 ); ∩
_( ⌒) ∩__
//,. ノ ̄\ / .)E)
/i"/ /|_|i_トil_| / / / ̄ ̄ ̄ ̄ ̄
|ii.l/ /┃ ┃{. / / < あけおめ
|i|i_/''' ヮ''丿i_/ \_____
i|/ ,ク ム"/ /
|( ヽ _,.-===、j、
ゞヽ‐イ/´ ヽ ヽ、
\! ::c:: ! :p
}ヽ __ ノ、_ノ
/ ノ ノ´ 今日はif文のかわりにハッシュを使うを覚えました^^
sub image_format_check {
use Image::ExifTool qw(:Public);
my $checkfile = shift;
my $info = ImageInfo($checkfile);
my $FileName = $info->{'FileName'};
my $FileType = $info->{'FileType'};
#my $MIME = $info->{'MIMEType'};
my $Date = $info->{'DateTimeOriginal'};
my $error = $info->{'Error'};
my %handler1 = (
"JPEG" => "jpg",
"WEBP" => "webp",
"PNG" => "png",
"BMP" => "bmp",
"GIF" => "gif",
"ZIP" => "zip",
);
#----- 画像の種類の判定 ここから
my $checkdata = $handler1{"$FileType"} // "bin";
$checkdata eq "bin" and $error = ":error bin";
$FileType =~ /TXT/ and $error = ":error txt";
return ($checkdata, $error, $FileName);
}