Irvine Part35 [無断転載禁止]©2ch.net
レス数が900を超えています。1000を超えると表示できなくなるよ。
Irvine(アーバイン・アーヴィン・いるびね?)は、ウェブ・FTPのファイルを
ダウンロードするためのソフトウェアです。
Irvineで簡単ダウンロード、なんて説明があったら、それは嘘です。
Irvineの使用には、TCP/IP、HTTP、ECMAScript、HTML、文字コード、
正規表現、等の知識が必要です。
ブラウザや他のダウンロードソフトで落とせるファイルが、Irvineで
落とせない場合は、まずこれらの専門知識を習得してください。
JWORDは非インストール推奨です。
※Irvineのアーカイブを展開後、jwordフォルダを削除してからirvine.exeを実行すれば
JWordのインストール画面は表示されません。
過去ログ・その他は>>2-4ぐらい。
公式
http://hp.vector.co.jp/authors/VA024591/
マニュアル
http://hp.vector.co.jp/authors/VA024591/doc/manual.html
前スレ
Irvine Part34
http://echo.2ch.net/test/read.cgi/win/1437882775/l50 このスレを検索して>>478をやってみたら動き出したよ Twitter_r
>Twitter: <div id="playerContainer"> が見つかりません。
とうとう動画のプレイリストも落ちなくなった
>>792-796もまだだし
Instagram >>707 >>712 も駄目だし
流石にもう終わりか ログインした状態で
tps://api.twitter.com/1.1/videos/tweet/config/ステータスID.json
をGETする必要があるのかな? どうだろう
ブラウザなら非ログイン状態でも動画見れる
PC用m3u8、mobile用mp4も普通に落ちてくるけど uploaded.to (0.40)
TCPIPエラーになってしまうので、対応よろしくお願いします >>807
recaptchaが変わったので、対応していないDEATH >< pixiv_r動く人っています?
pixiv.user.loggedIn が見つかりません。
が出るのですが、完全死亡なのでしょうか? 自分もpixiv動かないな
cookie関連が変わった? あ、画像ページのレイアウト変わってた
これが原因かね >>804-806
400 Bad RequestとともにbodyでもBad Authentication dataとか言ってくるなあ
ブラウザでは確かに非ログインでもOPTIONSで200、GETで200で
m3u8が入ったjsonが得られてるんだけど
どこまで真似る必要があるか試すのが面倒臭い...
そして分かったとしてもtwitter_rを読むのが大変... 優秀な社内SEが突然辞めてしまって
なんちゃってSEたちだけが残された会社みたいだな。
ベタな書き方は必ずしも悪くないんだよな。 いや実際ベタな方がありがたいけど
複雑なものをベタに書く方が大変だし結局読みにくいからな pixiv IDって使ってる人いるのかな
これログイン用のIDっぽいけど >>813
リクエストヘッダに
authorization: Bearer [0-9A-Za-z]{46}%2F[0-9A-Za-z]{12}%3D[0-9A-Za-z]{50}
があれば200になるようだけど、これどこから得られるんだ
・Chromeのシークレットウインドウ(twitter非ログイン)を開き直してリトライ
・ログインしている状態でのアクセス
・IPアドレスを変えてアクセス
・複数の動画ツイートについて確認
全て同内容だったんだけど、もしかして固定値?と思ってその内容でぐぐってみたら丸ごとヒットした
2017年3月より前にはないようだが、どういうことか全然わからん
とりあえずこれでハードコードしてしまえばm3u8が入ったjsonを貰えそうだけど >>819
https://stackoverflow.com/questions/43814283/this-request-requires-a-matching-csrf-cookie-and-header-353-code-error-on-twitt
>that Bearer string never changes on twitter it's always the same
//Dorothy2
//caption=test
//version=test
//match=https://api\.twitter\.com/1\.1/videos/tweet/config/[0-9]+\.json
//author=test
//end
function(){
common_load('download');
var http = download(urlinfo.url, true, {'authorization' : 'Bearer 上のスレッドで書かれている114バイトのbearer文字列'});
println('■ jsonの内容>' + http.data);
http.data.match('playbackUrl":"([^"]+)');
var url = new URL(RegExp.$1.replace(/\\\//g, "/"));
println('■ m3u8のURL>' + url);
urlinfo.url = url.url;
headers.host = url.host;
}
これで例えば>>743の
https://api.twitter.com/1.1/videos/tweet/config/986501787929665536.json
を取得できた >>820
twitter_rの_analyzeVideosの中身を
var jsonurl = 'https://api.twitter.com/1.1/videos/tweet/config/' + url.replace(/^.*\/([0-9]+).*$/, "$1") + '.json';
var getjson = download(jsonurl, true, {'authorization' : 'Bearer 上のスレッドで書かれている114バイトのbearer文字列'});
getjson.data.match('playbackUrl":"([^"]+)');
var video_url = new URL(RegExp.$1.replace(/\\\//g, "/"));
return this._analyzeVideo (video_url);
に置き換えたら通ったけど(common_loadにdownloadの追加が必要)
失敗する確率が高くて法則性が分からない
ブラウザではauthorization付きでGETする前にOPTIONSしてるのでそれかなとも思ったが
そういうわけでもないみたい
429 Too Many Requests(bodyではRate limit exceeded)になることが多い
そんなに沢山アクセスしてないんだけどなぁ
twitter APIのドキュメントを真面目に読んだりする気力はないし、あとは誰か頼む Jdownloaderでも動画だけはエラーになっちゃうよね今 >>821
json内にm3u8でなく直接mp4があるもの(短い動画、gifから変換された動画)について
_analyzeVideoの最後の部分を
return this._add ({ Url: url });
↓
return this._add (url);
とする必要があった
json取得は相変わらず安定しない >>823
json取得の際にauthorization:固定値だけでは全く成功しなくなり、今は
1. 動画を含むツイートのhtmlをGETし、cookieを受け取る
2. 以下の条件で https://api.twitter.com/1.1/guest/activate.json にPOSTする
・authorization:固定値
・cookieそのまま
・request bodyなし
3. guest_tokenなる値を含むjsonが返される
4. 以下の条件で https://api.twitter.com/1.1/videos/tweet/config/ステータスID.json をGETする
・authorization:固定値
・x-csrf-token:cookieのct0の値
・x-guest-token:guest_tokenの値
・cookieにgt=guest_tokenの値を追加したもの
5. m3u8またはmp4のURLを含むjsonが返される
という手順でcurlではいけた
https必須でcookieの加工が必要ということはIrvine/Dorothy2では無理なのかな?
いずれにしろ手に余る PIXIV、また読み込めなくなった…
IEでキャッシュ消してCookie更新してもダメ、新しいIDでもダメ。
10日位までは問題なかったのにまた何か変わったのかな pixiv_r >>541-542 >>562 >>687-689 適用後の状態で
■141-142行
if (/<script[^>]*>\s*pixiv\.user\.loggedIn\s*=\s*(false|true);/.test (this.data)) {
if (RegExp.$1 == 'true') {
↓
if (/login: '(yes|no)',gender/.test (this.data)) {
if (RegExp.$1 == 'yes') {
■299行
if (!/<section\s+class="work-info[^>]*>(.*?)<div\s+id="tag-editor">/.test (http.data)) {
↓
if (!/illustTitle":"([^"]+)/.test (http.data)) {
■302-304行 if 〜 } → 不要
■306行
nb.title = title ? (new Utf8 (title)).decodeCharRef () : ini.General.NoTitle;
↓
nb.title = title ? (new Utf8 (title)).unescape () : ini.General.NoTitle;
■321行
if (!/<img\s+src="https:\/\/i\d+\.pixiv\.net\/img\d+\/profile\/([^\/"]+)\/[^"]*"[^>]*class="user-icon"/.test (http.data)) {
↓
if (!/userAccount":"([^"]+)/.test (http.data)) {
■371-377行
if (!/<ul\s+class="meta">\s*<li>.*?<\/li>\s*<li>(.*?)<\/li>/.test (http.data)) {
http.die ('<ul class="meta"> が見つかりません。');
}
var t = RegExp.$1; // \d+×\d+ または 複数枚投稿 \d+P
var re = new RegExp ('^複数枚投稿\s+(\d+)P$'.toUTF8 ());
if (re.test (t)) {
↓
http.data.match('pageCount":([0-9]+),');
if (RegExp.$1 != 1) {
イラストと漫画で少ししか確認してないから多分うごイラや小説はダメだと思う >>826
うごイラについては、html内に
img-original[^"]+ugoira
があればうごイラと見なせ、その場合は
https://www.pixiv.net/ajax/illust/イラストID/ugoira_meta
にoriginalSrcとして大サイズのzipのURLが入っているみたいなので
落とす手順自体は簡単だと思うけど、pixiv_rの作りに従って改修するのは面倒かも
小説は落としたこともなければ見たこともなかったので全然わからないけど
htmlと表紙画像を落とすだけなら特に難しくはなさそうな気がする pixiv_r >>541-542 >>562 >>687-689 >>826 適用後の状態で
■31行
downloadを追加
■535-538行
var re = /<script[^>]*>\s*pixiv\.context\.illustId[^<]*;pixiv\.context\.ugokuIllustFullscreenData\s*=\s*(\{[^<]+\})\s*;\s*<\/script>/;
〜
http.ugokuIllustFullscreenData = json;
↓
if (http.data.match('img-original[^"]+ugoira')) { json = 'https://www.pixiv.net/ajax/illust/'+nb.id+'/ugoira_meta'; }
else { return false; }
■568-580行
if (!/"src"\s*:\s*"([^"]*)"/.test (http.ugokuIllustFullscreenData)) {
〜
saveUgoiraJson (http);
↓
var getjson = download(json);
getjson.data.match('originalSrc":"([^"]+)');
var zip = RegExp.$1.replace(/\\\//g, "/");
これでイラスト、漫画、うごイラいけるかな?
小説はやるつもりなし >>828
ん、なんか漫画や複数枚イラストが1枚しか落ちてこなかったり
1枚イラストなのにmode=manga_bigでpage=0とか見に行って400返されたりしてるケースがあるな・・・ >>829
■376行
http.data.match('pageCount":([0-9]+),');
↓
http.data.match('.+pageCount":([0-9]+)');
面倒だろうから、ここまでのpixiv_rの差分反映済みを上げとく
https://u1.getuploader.com/irvn/download/1637
twitter_rの動画関連で>>823まで反映したのも入れてあるが極めて低い確率でしか成功しない
>>824を組み込めれば・・・ >>707 >>737
instagram_r
■156行
u.path = '//' + u.filename;
↓
コメントアウト >>831
落とせるようになった!めっちゃ嬉しい
ありがとう! ネットラジオなんか自動でダウンロードしてるんだけども
最初にファイルサイズが決まってないから
設定のファイル上限サイズが効かない
こういう場合はスクリプトで対応するしかないのかな?
2GBで停止してくれれば・・・ループダウンで継続出来るのだけど。。 ネットラジオには手を出してないけど
漫画雑誌が紙をやめてwebに移行していく流れがあるので
どう追っかけてダウンロードするか悩んでいる >>835
古いverだと2GBまでしかダウンロードできないはずだったけど
最初にファイルサイズ決まってない場合は
スクリプトでしか対応出来ない気がする
エロい人はもういなさそう >>837
youflix.isのスクリプトは2GB以降は切り捨てだった
そもそもIrvineさんは選手なんですか?
別ファイルにできるのだろうか・・・ twitterのDM内の画像や動画を今は完全手作業で落としたあと
各種情報をかき集めてtwitter_r風にリネームしてるけど
これもtwitter_rの処理対象に含めようと思うと
どの程度大変なんだろうなぁ そもそもrentanさんのとこ完全に更新止まってるから望み薄なような、、 rentan教授はrentanを探せみたいになったね
他で活躍してそうな感じはする
thisavはmpd(ダッシュ?)で分割しているというよりベースファイルがあるみたいですね
mpdファイルに答えがあるので見てみると自力でなんとかできるかも? あら?twitter_r、>>830から何も変えてないけど
適当な10数件を試したら全部うまく落ちてくるようになってた
普通のやつ、短くてループするやつ、gif変換のやつについて確認した 最近になり使い始めました。原因がわかる方いたら教えてください
フォルダ設定>ファイル の「保存フォルダ」で指定した場所にファイルが保存されません
指定場所は E:\download ですが、実際に保存される場所は同じ物理ドライブのDドライブ直下です
IrvineはDドライブに入れています
システムドライブは別の物理ドライブCです
未確認ですが、10MB程度のファイルは指定場所にちゃんと保存されますが、1000MB程度になると
D直下になる気がします >>843
フォルダ設定はキューフォルダごとにあるから間違ってるとよくあるけど容量で違うところに保存されたことはない
ファイル名が長いとE:\downloadがE:\などに保存されることはある
IrvineをDドライブに入れてると初期設定がD:\になってることはありそう
もう一度キューフォルダごとにフォルダ設定を見直す
新規作成からキューフォルダを作成したときに保存先がD:\になってるとエスパーしてみる >>844
回答ありがとう。
ご指摘の箇所については、キューフォルダは最初からあるデフォルトのみで、
保存先は E:\download になってましたが、いろいろいじってみたら一応解決しました
ダウンロード開始するときの「アイテム設定」で「保存フォルダ」でプルダウンメニューから
E:\download を選ぶと1000MB超のファイルもちゃんとそこに保存されました
(変更前は空白のまま)
毎回プルダウンから選択しないといけないんですかねこれ? Irvine使うっていうとまあDorothy2も入れて色々追加しているんだろうけれど、
ダウンロード時にIrvine上でダウンロードしたいフォルダ選択・表示してダウンロード実行しても
他のフォルダをクリックして表示させるとそこにダウンロードされる、というのはある
YoutubeやE-hentaiなんかは最初に指定してやれば他のフォルダ開いてもIrvineのフィルタ設定やダウンロード指定通りに保存できるが、
Pixivやtwitterは保存先が変わってしまう
解決策は…わからん >>846
rentan氏のなら、設定が必要
ドキュメント良く読んでね。 あー、
アイテム追加で使われているadditem.dmsのテキストね。
Dorothy2\document\common\additem.txtか…完全に読み飛ばしてました。
更に個別に設定を反映するのは大変だから、
>> 各フォルダの queue= にそれ自体のキューフォルダ名を設定しておけば、
>>「同じフォルダに追加する」という動作が可能です。
>>
>>別途配布されるスクリプト d2_set_queue.dms を使えば、一括して各フォ
>>ルダにその設定を行うことができます(手作業で設定しても構いません)。
でフォルダ設定を下位へコピーと同じように一括で反映できるって事か。なるほど。
有難う。 追記:
pixivとtwitterのiniに
Mode=OptionQueue
を指定してqueueを反映してやると両方とも実行した時点の保存先が保持できました。
カレントフォルダを移動しても問題なしです。 twitter_r、自分がフォローしている鍵垢が上げた動画について
IEでログインしているcookieが有効な状態でも>>771になるな
鍵垢は試してなかったが、やっぱり駄目だったか… >>850
鍵垢とか関係なく、動画でなく静止画でも同様になってた
気が向いたら調べる 「Delphi」「C++Builder」のフル機能を無償で 〜“Community Edition”が発表 - 窓の杜
https://forest.watch.impress.co.jp/docs/news/1133620.html fc2作るには資本金とかは書いてないからわからんけど
20年近くかかるんじゃね? https://fc2.com/company.html >>554-556
commonのexdownloadでダウンロード後、リネーム前にtouchを入れることでタイムスタンプ反映できた
exdownloadは現状ではtwitter_rからしか使われてないようなので汎用性とか安全面の考慮はしない
twitter_r側でtwitterのhtml内、og:imageで示されるサムネURLをHEADしてタイムスタンプを得ることにした >>851
知識も何もないので調べてたらどんどん分からなくなってきたが、とりあえず途中経過
非ログイン状態では
・画像、動画(公開垢):>>830でOK
・画像、動画(フォローしている鍵垢):ログインしていないので当然NG
ログインしている状態では
>>830の433行の前にhttp.setRequestHeader ('Referer', urlinfo.url);を入れたうえで
・画像(公開垢、フォローしている鍵垢):OK
・動画(公開垢):json取得時にauthorization(固定値)が必要
・動画(フォローしている鍵垢):json取得時にauthorization(固定値)、cookieのauth_tokenとct0、x-csrf-token(cookieのct0と同値)が必要
こんな感じ?>>824ほどの手順は踏まなくても良さそうだけど
auth_tokenやct0がいつ変化、確定して、Dorothy2的にどう扱えばいいのかが分からん >・画像、動画(公開垢):>>830でOK
これ駄目なやつまだ結構あるよ
条件わからんけど >>860
条件わからなくて「時による」みたいな雰囲気もあるから困るんだよなあ
ブラウザと同等のアクセス手順を踏むようにするのは難しそうだし Iwara0.02がダウンロードできなくなってしまった
https化したのが原因かと思ってmatchのとこを書き直したけど直らなかった 韓国語や年齢制限に対応してないので最近はつかってないわ
職人も著作権というリスク犯してまで作ってくれないだろうしなぁ youtubeでUnicodeでしか表現できない文字が使われてる場合に
Dorothy.fileNameとしては確かにそのままでは駄目だけど
ダウンロード時点ではidなり何なりを使っておいて
バッチファイル側で最終的にUTF-8の文字列を使う、みたいな方法は可能なのかな? Pixiv ブラウザからcookie読み込めなくなったけど、また仕様変わったのかな?
pixiv_r は >>830 のを使用させてもらっている すみません。
日本語のファイル名のものが落とした後に文字化けしてしまうのですがスクリプトとか分からなくても本体の設定で解消できるでしょうか? 質問するときはURLを晒すのがお約束だ
たぶんUTF-8だろうから無理 ソースを見たらUTF-8でした残念。
ありがとうございました。 Iriaからの流れでずっとIrivine(イリバイン)だと思ってた 連番で落としたい物があってリンクのインポートで展開しようとしたら、>>17だったんですけど、これはもう打つ手なしでしょうか? 時々フォルダ名を長く入れすぎてしまって、・・・httpproxy.iniが作成できない旨のエラーが
出るんですが、これどこを弄れば長すぎるフォルダ作成自体をなかったことに出来るんでしょうか?
これまでも何度かやらかしてirvineのファイル保存(自動保存含む)のたびに出るんで、新規インストールし直してなんですが。 昨日か一昨日あたりから、imgurの画像がIrvineで落とせなくなった。
最近imgurの調子が悪いようなことはあちこちで見ているが、自分の環境ではJaneやFirefoxではそうでもなく、今も見れている。
なのにIrvineでだけ、落とせなくなった。
ほかの人はどうですか?
User-AgentやRefererをどういじってもだめみたいなんだが、意図的にはじいているにしろただの不調にしろ、
imgurに限らずこういうのってどうやってブラウザではなくダウンロードソフトからのアクセスだと判断しているの?
サイト側で、他のブラウザなどと全く区別できないようにするにはどう設定したらいいのかな?
まず、ブラウザで画像を直接表示できるのだから、Refererは「使用しない」でいいんだよね。 クッキーも関係なさそう。
User-Agentを、Firefoxでimgurにアクセスできてるものをコピーしてirvineに設定してもだめなんだが、
他にどういうとこで区別してるんだろう。 >>878
保存したいかどうかはともかくとして今いくつか集めてみた。
https://i.imgur.com/bHP0iJt.jpg
https://i.imgur.com/Wf9z33o.jpg
https://i.imgur.com/bcqRaR0.jpg
https://i.imgur.com/5rlyb02.jpg
https://i.imgur.com/43w0RAy.jpg
…のだが、今このURLをIrvineに渡してみたら全部普通にダウンロードできたわ。
(もちろん全部JaneやFirefoxでも見れる)
imgur側の不調のせいなのかしらんが一時的なものだったみたい。
不調が原因で、JaneやFirefoxでは見れるのにIrvineではだめってのも謎だけど。 https://u1.getuploader.com/irvn/download/1639
べつに無くても済むけどimgurの自分用に作ったやつ
使ってるけど中身はしばらくいじってないから忘れた 多分XPの人だろうな
今は戻ってるけど少し前に見た時はSNI使われてたから Irvineのせいじゃないけど、
ffmpegってURLのディレクトリ部分に%2とか%3あると、そこがおかしくなって404になる
本当はだめなのかもしれないけど、ブラウザでもIrvineでもそのまま落とせるのに
頭の固いやつめ… >>883
URLを""でくくるとOK
ファイル名も""でくくったほうが安心 レスありがとうございます。無理でした。
ffmpeg 4.0.2
もしかしたら、%を\%にすれば行けるかもと思ったのですが、エラー出しまくってBANになるのも怖いので諦めました
リンクのインポートでは長いURLは展開できませんが
リンクのインポートを開かずに貼り付ける事はできるので、テキストエディタとかで何とかします ffmpegデフォだと %数字d の部分が連番入力になってしまうから
-iオプションの前に-pattern_type none付ければ行けるんでね? >>886
こんなオプションがあったとは
今試せないけど今すぐ試したいプルプル pixiv メンバーIDから自動で作品URLを取得できなくなってるけど皆はどう? https?://www\.pixiv\.net/member\.php\?id=\d+
こういう形式のなら、うちでは>>830でいけてる youtube (2.50)
https://www.youtube.com/watch?v=XHnXf1EbaIo
itag22が403で落とせないです
youtube-dlなら落とせました 22というか
decipher_pattern error
かな? >>889 報告サンクス
色々試しても駄目だったけど、思いつきで新規ID作って試したらあっけなく成功
なんやねんこれ? 今まで気付いてなかったけど
アイテム登録時にフィルタリングでごみ箱に送られたアイテムは
ステータスバーやタスクバーボタンではダウンロード待ちとして数えられてるのか(ダウンロードされないので0にならない)
メイン領域の上部にあるステータス表示ではそうはなってないのだが... pixiv、>>888と同じか不明だけど
レイアウトが全く変わって取得できなくなってる? Irvineでニコニコ動画から音声だけダウンロードって出来ませんか? レス数が900を超えています。1000を超えると表示できなくなるよ。