連番のH画像/動画を一気にダウンロードする7.5 [無断転載禁止]©2ch.net
それだけ言われても「知らんがな」としか言いようがないな https://e-hentai.org/codegen.php?gid=1023475&t=f6cc69a2a9
The requested URL /codegen.php was not found on this server. やはりなくなってるよな。
あそこからタイトルとか取ってたから修正した 俺はあそこからタイトルとページ数しか取ってなかったから
普通にDLしようとするページからとるようにしただけ XPathはよく分からんが'h1','h2'でタイトル取れるんじゃね ページ巡回しながらDLしてると数枚DLしたところでタイムアウトするようになる
やっぱりigneous吐いてないからかなぁ cookieも詳細が分からんからログインして作ってる
$mech->submit_form(
fields => {
UserName => 'Hentai',
PassWord => '123123',
},
);
... いやいや、ツールもブラウザも自前でhttpリクエストを編集してpb_member_idと
ipb_pass_hashに加えてuconfig=dm_tだけしか送ってないけど何の苦もないな。
むしろ何の新機能に使われるかも判らんものを送る程自信家じゃない。 最後のuconfig=dm_tってどういうものだっけ? ギャラリー一覧をListモードじゃなくてThumbnailモードで表示するためのもの。
画像のダウンロードにゃ関係ない。 URLをリストで取る方法はもうないのかな?並列処理でDLしても意味ない? 俺はギャラリーのサムネイルページから40p単位で収集してるが 夏休みの工作でnode.jsベースでダウンローダからUIから画像ビュワーまで全部Javascript化したよ。
以前に作ったC++で2桁スレッドを回すネイティブアプリを移植したものだけれどイベントドリブンな
nodeだと果たして、と思ったら遜色ないし先々のhttps対応もあるからこれに乗り換えていいかなと。
WebSocketでつないだブラウザで複数ワーカスレッド回しproxyとっかえひっかえのダウンロードでは
画像だけで平均250KB/秒のパフォーマンス。200PのMANGAなら5分程。(ウチはADSLに3年落ちEeeBox)
RAMはネイティブアプリの数倍喰うとはいえピークで25MB程度はブラウザのおまけみたいな量だし。
node.jsはおすすめ。けどこれでリファレンスマニュアル?と言いたくなるドキュメントが酷いです。 はい、有り難うございます。
{'センターで右クリックして名前を付けて保存...';}と虚ろな目で呟いていた少年の頃、
誰かに褒められようとがむしゃらにクリックしながら、時に自分を見失うこともありました。
あれから4スレ経った今、幾多のOSとフレームワークを経験してようやく何かが見えた気がします。 なんかお気に入りに登録した記憶のないやつが登録されてるんだけど?
のっとられてるのかな?パス変更とかできたっけ? amazonのなか見検索の画像をダウンロードする方法を教えてくれないか?
例えば
https://www.amazon.co.jp/%E3%81%93%E3%81%A3%E3%81%A1%E5%90%91%E3%81
%84%E3%81%A6%EF%BC%81%E7%82%BA%E3%81%A1%E3%82%83%E3%82%93-%E7%82%BA
%E8%BF%91%E3%81%82%E3%82%93%E3%81%AA-%E5%BF%85%E6%92%AE%EF%BC%81%E3
%81%BE%E3%82%8B%E3%81%94%E3%81%A8%E2%98%86-%E7%82%BA%E8%BF%91%E3%81
%82%E3%82%93%E3%81%AA-ebook/dp/B01EAMGEAI/ref=pd_sim_351_3?_encoding=
UTF8&psc=1&refRID=WBBQ4D18HA9TRTRVZTKX
(↑行が長すぎて書き込みエラーになるので一行に連結してください)
為ちゃんの画像をクリックすると写真集の中身がいくつか見られますがマウスの右クリックで保存
できないしhtmlのソースを見ても分かりません。
<(_ _)> 自動化したいのか手動でもいいのか
自動化したいなら少なくともjsonがわからないと無理
手動でもいいなら
ttps://torisedo.com/39040.html
みたいな方法でやればいい >>49
自動化です。手動ならばchromeの名前を付けて保存(ウェブページ、完全)でいけました。
>自動化したいなら少なくともjsonがわからないと無理
UNIXの兄貴でも無理なのか…なら諦めるっす >>50
ああ、そういう意味じゃなくて君がプログラム書くなら最低でもjsonでのやりとりわからないと無理だなって話 誰でも簡単にパソコン1台で稼げる方法など
参考までに、
⇒ 『宮本のゴウリエセレレ』 というブログで見ることができるらしいです。
グーグル検索⇒『宮本のゴウリエセレレ』
02C03Y9NN9 今までgui4ehgm使用してどのページからでも
EXをDL出来てたのに、好きなページから落そうとするとエラー出るようになった
タイトルの最初ページからスタートすると落とせるが途中でエラーになったらまた1からスタートせにゃならん
EX仕様かわった?任意のページからサクサク落とせる方法ない? 知り合いから教えてもらったパソコン一台でお金持ちになれるやり方
時間がある方はみてもいいかもしれません
グーグルで検索するといいかも『ネットで稼ぐ方法 モニアレフヌノ』
EMMLP ...そうだよな...もう連番のH画像を一気にダウンロードすることに注ぐ余分なスキルがある時代じゃないよな ていうか最近連番じゃなくてハッシュ値みたいなランダムな値だったりしてやりにくい ギャラリーのトップのURL(e-hentai.org/g/999999/123456789a/とか)をもとにして40ページ目とかのURLをスマートに取得する方法ってないの? 人間と同じ手段踏む必要あるよね?
APIとかで取得はできないのかな それページ数少ないじゃん
200とか300とかあると直接は取得できなくない? ああ、意味がわかった
/1346281-40以降がないから
/1346826/46dc25d935/?p=5などから取得するしかないってことね
ほかの方法は知らないな リニューアルしてから一部のページがソフトからだけ404になるんだが同じような人いないかな ブラウザでロケーションバーのURLに手打ちで「&inline_set=dm_t」とか追加して飛ぶと404になるのは気が付いた。
これを「&inline...」とするとOK。URIのデコード処理がしょぼくれてるんだと思われる。 うーんその手のHTMLのエンコードデコードあたり関係なく、ただ作品の〇〇ページ目のURLに飛ぶだけでも404になっちゃうんだけど・・・
プログラムの書き方が悪いだけなんかなあ 俺ん所のDLスクリプトは以前と同じだけど500P弱のアンスリウムは問題なかったな。
400番台のレスポンスもproxy切り替えながらリトライした上でレポート&スキップする作りなんだが。 あっちも試験運用始めました状態だろうし移行期には思わぬ事にいろいろと出くわすだろね。 Perkで取得できるリミットを拡張してると、前まではhath_perksのクッキー保有してたらダウンロードできたけど、それだけじゃできなくなってない?
確認できる人いたらお願いします 地味にカテゴリ選択ボタンの色を変えて来てるし。どこ弄ってんだよ。 >>77だけど、skっていうクッキーも必要みたい
参考までに 思い付きで「&inline_set=tl_e」「&inline_set=tl_j」を試したらタイトル表示設定が切り替わったよ。 wget でダウンロードできるのに lynx でできないって、なんなんだろうな。
LWP でさえ、wget に偽装すればできるのに。
いや、E-Hentai のことじゃないんだけど。 https://t.co/xxe8O7Rzfu 👀
Rock54: Caution(BBR-MD5:b73a9cd27f0065c395082e3925dacf01) これ頼みます。
ttp://www.bobx.com/av-idol/touka-rinne/photoset/fetibox-2018-07-27-0-2-8.html >>83
サムネの下の[height×width]と
画像単独ページの実際の縦横の値が全然ちがう。 https://bpub.jp/bookbeyond/item/500000513270
↑こういう漫画の画像って直接取得すると細かいチャンクにバラバラに分割された画像になってしまうんだけど
この画像をブラウザがどんな手段で復元してるか分かる人いません? canvasじゃね?
Chrome/FirefoxならCtrl+Shift+Iで見てみ >>86
ビンゴでした。
でもこれはどうも手動じゃないと取得できませんね…
残念。 復活してた。
見れねーじゃん、とか思ってたクッキーが賞味期限切れしてただけだった THEDOUJIN.comって一括ダウンロード出来ない?
古いツールならあったけどサムネしか保存されない… >>83
みんなしてダウンローダー使って無茶するから管理人ブチ切れよったで
Bobxの画像大きく表示できないんだが俺だけ? [無断転載禁止]bbspink.com
http://mercury.bbspink.com/test/read.cgi/girls/1574222848/ 今年一年、無病息災家内安全でありますようにパンパン 連番のエロ画像かなつかしいな
今なら簡単にできるな 昨日からehgmが使えなくなったんだけど使えてる人いますか? なんやらかんやらあってWeb漫画サイトをあちこち巡る事が多くなった昨今、
且つてexで培った「連番でヌいたろ」精神がムクムクと頭をもたげる訳で、
自分が巡回するサイトはあらかた対応できたんだがPASHが判らん。
GWの暇つぶしにするつもりだけど見通しが立たないんで誰かヒントでもくれ。
>>85もPASHと同じpublus系だけどearthstartと同レベルっぽいからイケるわ。
だが学研に興味はない。上池台に住んでた頃から。 ところで、なんだけど。
あちこちのサイトに上がってるエロ漫画画像の「DL版」って元はどんなものなの?
まさか画像ファイルの形式で売ってるサイトがあるわけでもないだろうに、どこで手に入れてるのかな、と思って。
電子書籍のスクリーンショットか何かなの?? >>99
いくら何でもスレチ過ぎるって気付かんか? DLsiteなどはツールで抜けるらしい
BOOTH通販やファンティア[Fantia]だとpdf+zip形式で買える GWもロスタイム。自分の能力ではデコードの糸口も見出せそうにないのでPASHは断念した。
今回Web漫画サイトを回って知ったのは、この手の行為に対して意外と大手漫画出版社のガードが
チープな事。ほぼノーガードですって場合も多い。「ウチの本業じゃない所にコストを掛けるより
この程度の解像度でよきゃ欲しい奴は持ってけ」方式なのか。
手間と言えるものを掛けたのはチマチマとブラウザのデバッグツールでJavascriptを追ったbinb系と
力技でスクランブルパターンの計算方を探した(簡単な方の)publus系。
後は思い出した時にでも海外掲示板でそのスジのツワモノ達の解析談義を検索するよ。
久々の連番スレはもう廃墟かと思いきや生存者が居てなにより。それでは良い終末を! csvファイルにURLが記録されている画像をダウンロードするには、何か良い方法はありますか?
1行の構成は次のような感じです
url1, url2, url3 ... 最大でurl10まで
これが複数行あります あっと、wgetのhelpの中にありました(見落としてた)
wget --input-file=hoge.csv
ですね いや、wgetだと1ファイル/1行しかダメですね
カンマあるいはスペース区切りで複数URLが1行にあると、ダウンロードできない
csvファイルを列ごとに別ファイルにするのは最終手段にしたいので、
何か良い方法は無いでしょうか? csvファイルのカンマ区切りを、スペースに置換して保存しても、
wget -i hoge.csv
を実行するとスペースが%20でwgetに渡され、1つの繋がったURLと見なされてForbiddenになってしまう そこはスペースではなく改行。
tr ',' '\012' | wget -i -
みたいな感じか。 おお、trなんてコマンドがあるのですね
cat hoge.csv | tr ',' '\012' | wget --input-file=-
で出来ました
ありがとうございます テクマクマヤコン、テクマクマヤコンと唱えて服を脱ぎます 久しぶりの書き込みが、と思ったらなんのこっちゃ。
canvasは本体ドキュメントの場所と異なるドメインから持ってきたコンテンツを描画すると「穢れ」る訳で、
そうやって汚染されたcanvasからはデータを抜けなくなるよね。
まぁユーザーの手操作で「名前を付けてファイルに保存」する事は出来るんだけど
解決策の一つは代理Webサーバをローカルに立てて異なるドメインとのやり取りを仲介させ、
その際に自前のスクリプトを注入してドキュメント内のリンクを書き換えてしまうことで
ブラウザには同じドメインのコンテンツの様に見せかけて穢れは無いと誤解させること。
この仕組みを作っておけば、この板の趣旨的には結構便利。
もう一つ、二次元画像ならクロスドメインに厳しいブラウザなど使わずに自前で直に編集出力すること。
各種web漫画サイトなら自分はnode+sharpでふじこlp H画像じゃないけど誰かComicWalkerのAPI知らね?
ニコ静のofficials系とcontents/<ID>/episodes系