【RSS】 Yahoo! Pipes 2 【XPath】
pipesがわかりやすすぎるんだよなあ
簡単なのねーかな >>649
何がしたいのかによるから
RSSがないのをRSS化するならkimono
ttp://imabari.hateblo.jp/entry/2015/06/23/145853
kimonoでフィルタ
ttp://imabari.hateblo.jp/entry/2015/05/07/231225
RSSを結合・フィルタならGoogle Apps Script
ttp://imabari.hateblo.jp/entry/2015/06/18/114843
TwitterでBOTするならGoogle Apps Script
ttp://imabari.hateblo.jp/entry/2015/06/12/143021 pipesって分かりやすいかなあ
フィルタリングやらマージだけならともかく >>653
XMLやJSONやRSSを加工するならGoogle Apps Scriptはベストだと思う。
あとはBOTぐらい反対にそれ以外の用途に使うのは難しい。
スクレイピングには向いてない。 >>651
> RSSがないのをRSS化するならkimono
> ttp://imabari.hateblo.jp/entry/2015/06/23/145853
ありがとう。
ツイッターをRSSリーダーで、まとめ読みしたいから試してみるよ。 >>655
Twitter読むならQueryfeedで読めるよ >>657
Omit direct messages (started with @someuser)
Omit retweets (started with RT)
Show images as attachments
この3つのどれにチェックを入れればいいのかがわからない。 >>658
自己レス
Omit direct messages (started with @someuser)
と
Omit retweets (started with RT)
にチェックを入れるんだな。 omitほにゃららにチェックを入れたら、該当するツイートを除外するんだと思うよ。
特定のユーザのツイートを全部取得したいなら、from:dave_spector みたいに指定してあげるだけで良いと思う。
もちろん、ダイレクトメッセージやリツイートは除外したいなら、それぞれにチェック入れれば良いよ。 HTMLをXPATHで抜いていた用途だとGASは弱いなぁ RSSの無いサイトをRSS化したくてkimono使ってみたけどなんかうまくいかなくてGASで挑戦してみた
HTML読むの確かに弱いみたいで、仕方ないから文字列として読んで正規表現だけでどうにか整形した
最初単一のスクリプトでRSS吐くようにしたらどうしようもなく遅かったけど
スプレッドシートに書き込むのと、スプレッドシートを読んでRSSとして出力するのに分けたらすごく速くなった
スプレッドシートのRSS化はググったらすぐ出てきたやつほぼそのまま使ったよ Google Apps Scriptが弱いとかありえん
弱いのはプログラミング能力じゃねーの >>663
そりゃまぁ自分のプログラミング能力に自信のある人ならなんでもできるのだろうけどさ
単なるサーバサイドで動くJS感覚で
スクレイピング特化のIDEからの移行という事を考えてもらわないと kimono登録して弄ったけどよく分からんかった
jsonとcsvは正常っぽいのにRSSだけおかしい
RSSの作成だけならfeed43でいいかなぁ
しかしフィルタリングも必要だからなんとかしなきゃ… 単なるフィルタルングはフィードリーダー側に付くべきだと思ってるけど
googleもldrも結局付かなかったな >>663
やってみたらわかるけどxmlだとスクレイピングできないので結局正規表現しかない
いろいろ探してみたけどどれもタイトル引っ張ってくるだけのサンプルしか見つからなかった >>665
名前を以下の名前にしてないとRSSにならないよ
Aは必須、Bはあってもなくても、Cはなくても
A
title タイトル(リンク含)
B
description 内容
pubDate 日付
C
author
category
comments(LINK)
あとコレクションがひとつで抽出している数が全部同じじゃないとRSS化できなかった。
フィルタはこのサンプルでできた。
ttp://imabari.hateblo.jp/entry/2015/05/07/231225 >>668
titleはtitle(LINK)じゃなくてもいいのか
良かったらHatenaBlogの人が書いてる"それぞれのAPIを作成"ってどういうことか詳しく教えて欲しい kimonoっていつか有料になりそうだから怖くて使えねえ… >>669
>>668じゃないけど、そのブログで説明されているのは、リンクを取得する API(1)の作成と、1のAPIをソース(URLs from source API)にして title や description を取得するAPI(2)の作成、という2段構えでRSSを作成する手順だよ。
1個目のAPIでページからリンク抽出→1個目のAPIの結果をインプットにして2個目のAPIで詳細情報の抽出
なので、「1・2それぞれのAPIを作成する。」ってこと。
pipesでも複数のpipesをつなげるやり方があるでしょ。あんな感じ。 >>672
複数のpipesを繋げるやり方、でやっと理解
ありがとうございました xpath系は672の方法で大体kimonoで代用できそう。 XML Service Service | Apps Script | Google Developers
https://developers.google.com/apps-script/reference/xml-service/
feedもhtmlもxmlなんだからこれ使えばいいだけじゃないのか?見当違いのこと言ってたらすまん >>675
feedとxmlはできるんだけど
htmlはXmlService.parse()するだけでエラーとかで使い物にならない。 >>676
なるほど構文解析が厳密で蹴られるのか、それは微妙だわ
pipesはそのへんかなり柔軟に対応してたな morph.ioから寄付のお願いメールが
どこもキツイのか >>679
うちのも止まってたけど15時頃からまた動き出したっぽい >>666
広告載せてるから無料でサービス提供出来てるRSSリーダーが
[PR]の文字はじく機能つけたら誰もカネ出さないだろ
アホみたいにシンプルで圧倒的に需要ある機能なのに
絶対に形にならないとか歪んでるよな Pipesの代用にはオーバースペックのような気がするけど。
それにこれを自鯖で動かせるなら簡単なPHPなりPythonなり書けると思うし、書いた方がが早い気がする。 >>683
ホスティングしてくれるから使ってたのに、自鯖用意するならイラネ
あんな面倒なコーティングやってられっか! >>686
> ホスティングしてくれるから使ってたのに、自鯖用意するならイラネ
それは言える これ使うならレンタルサーバーっていうよりVPSじゃないと kimono止まった時手動で再スタートさせないと
いつまでも止まったままっぽい? 止まってるのに気付かなくて2週間以上止まってたことあるから、多分そう myThings、Pipes引き継いでくれないかな 項目
項目
項目 new
項目
みたいなのをkimonoで抽出すると↓みたいなことになる。前は↑の状態のまま抽出できたのに…
項目 new
項目
項目
項目 あれこれ移行先考えたけど面倒くさくなってPC上で自作アプリ定期起動、
出力結果のrssをgoogle driveに配置で落ち着いた
リアルタイム性はあまり求めてないのでもういいわ ttp://blog.takuros.net/entry/2015/08/30/180823
実践 Webスクレイピング&クローリング-オープンデータ時代の収集・整形テクニック
http://www.amazon.co.jp/exec/obidos/ASIN/4839956472/
JS+Node.jsによるWebクローラー/ネットエージェント開発テクニック
http://www.amazon.co.jp/exec/obidos/ASIN/4883379930/ 結局メジャーな移行先は特に無く各々でなんとかしなければいけない感じか… まとめたRSSを自分で読む為だけにPipes使ってました。
仕方なく、自作のしょぼいRSSリーダープログラムを大幅改修して
複数RSS統合、重複記事排除、不要記事削除、日付順に
ソートなどの機能を追加して使ってます。
いまだに細かいバグはありますが、とりあえず、なんとかなりました。
2chMate 0.8.7.11/Borqs/Si01BB/4.2.2/LR 実践 Webスクレイピング&クローリング-オープンデータ時代の収集・整形テクニック
読んでみたけどamazonのレビュー通り
内容は初歩の初歩で終わりこんなツールがあるよって感じで
その先が情報が知りたいのにさわりだけで全然内容がない
pythonのコードが最初の頃と後ろの方にもあるけどまったく同じコード
目次見てツールの名前調べたんでいいレベル とりあえずjsonでバックアップだけはとっといた。 いくつか立ち上がってたクローン系のプロジェクトはどうなったんだろ・・
ここまで代替が来ないなんて思ってなかった 代替サービスがあってもPipesからそのまま引き継ぐのは期待できなかったし、
新しいサービスで同じ内容を組み直すくらいなら、その苦労の時間を使って
なにか言語を習得して自分でコード書いたほうがいいのは明らか。
かなり時間はあったのに何やってたんだよ。 仕事してたらそんな余裕ねーよと言いたいが
正直きついな もう編集できないだけじゃなくて中身見れないのかな
一番使ってた奴は大体覚えてるからいいけど あとわずかで使えなくなるんだ
代替なくて困ったままだけど世話になったな みんなどうするの
俺まだなにもしてなくて、とりあえず今大急ぎでjsonだけ確保してるところ。 時間なくてjavascriptの習得も、GASで自分のやりたいことを動かすレベルまでに達っせてないが、コツコツ続けるしかない… あっちの時間の9/30だろうから、まだ明日のお昼くらいまで使えるかな。
なくなるのは本当に残念だが、仕方ない。ありがとう、Yahoo!pipes! phpできる人は羨ましい。
pipes確認したらまだ動いてるね 既存のRSSを正規表現とかでフィルタリングして別のRSSとして吐き出す(そしてFeedlyあたりで読む)
みたいなのをやるにはGASが手頃っぽいんだけどなかなか難しい…
ネットで断片的な情報はいくつか見つかるから再利用させてもらおうとは思っているのだが pipes逝ったー!
いままでありがとうございました! これと言った代替サービスも無いまま、普通に終了してしもうた >>722
GAS使用でソースがRSSならhtmlスクレイピングするより数段楽だぞ
頑張るんだ >>727
スクレイピングもyqlとかPage2Feed併用すりゃxmlに(無理やり)変換してくれるので楽々。
function fetchXPathPage (url, xpath, html5, charset) {
const yqlapi = 'https://query.yahooapis.com/v1/public/yql?';
const Q = "'";
var query = 'select * from html where url=' + Q + url + Q;
if (!(html5 === false))
query += ' and compat=' + Q + 'html5' + Q;
if (charset)
query += ' and charset=' + Q + charset + Q;
if (xpath)
query += ' and xpath=' + Q + xpath.replace(/\'/g,'"') + Q;
var yql = yqlapi + 'format=xml&q=' + encodeURIComponent(query);
var contents = UrlFetchApp.fetch(yql).getContentText();
var document = null, xml = null;
try {
document = XmlService.parse(contents);
} catch (e) {
document = null;
}
if (document)
xml = document.getRootElement().getChild('results');
return xml;
} こういう状況でまだYQLとかいつ終わってもおかしくないサービスに頼るってのが
ちょっと私には理解できないですね それだとあらゆるウェブサービス否定になっちゃうからね yqlは残ってるんだ。でもyqlも多分お金は稼げてないよね。マネタイズっていうんだっけ? リーダーの時みたいに代替が出てくるかとと思って
様子見てたら出遅れたので
単純で更新頻度が高いのはKimonoに
複雑で更新頻度が低いのはFeed43に
複雑かつ更新頻度が高いのは自作perlに
なんとか振替終わった。
PHPが理解できればもうちっと楽できたんだろうけど。 >>733
PHPのほうがカンタンじゃない?私はperlわかりません^^; ttp://run.pipes.yahoo.com/
ミラーがまだ動いている
Yahoo! Pipesのミラーサーバーは未だ稼働中 - K'conf
ttp://kenz0.s201.xrea.com/weblog/2015/10/yahoo_pipes.html 安いのにコスパ高くてしかもうまいw
味噌汁もついてきてこの寒い朝にピッタリだねw
http://i.imgur.com/HEONEbG.jpg
※画像は豚汁変更と大盛のオプションを付けております。
あとすき家は国産の米を使っているから他店より味もいいねw
詳しい食べ方はこれをみてくれw
http://www.riki35.com/tabearuki/yahatahigasiku/3140/
一応他にもチーズ牛丼や鍋やおいしいメニューがいっぱいあるから公式ホームページもはっとくわw
http://www.sukiya.jp/sp/
お前らwお腹が空いたらすき家に行こうw >>738
パイパイじゃなくてパイプスだよ、ここは 俺はいつもNHK・新聞勧誘が来たらまず服を脱ぐ(靴下以外)。
そしてドアを大きく開ける。
たいていの勧誘人は1分以内に帰る。
一度だけ、フルチンの俺を無視して勧誘を続ける新聞勧誘がいたが、
俺が勃起してきたのを見て帰っていった。
楽勝。 pipes終わったけど
お前ら今だから言える
こんなRSS取得してましたっての言っていけよ
それで供養としよう
俺は毎日虹美少女画像が流れてくるDanbooruの
ランキング上位画像だけ吐き出してくれるPipes作って
ニタニタしてました、お世話になったよありがとうYahoo Pipes ラノベ天狗っつうインターネット妖怪がいるんだが
それの真似事するのにtwitterの検索結果からbotを取り除くので使ってた
バイバイYahoo Pipes Ceron.jpのRSSのうち、コメント数が特に多いもの(3桁以上)を抽出するのに使ってた
あとアメブロの全文取得&画像表示RSS 結局代替はどうしたんだよお前ら
統合とフィルターと全文表示くらいしか使ってなかったが
pipesほど簡単に出来るのないんか Twitterで好きなテレビ番組情報呟くbot作ってたよ。
番組HPから次回告知の情報抜いて、次回放送までの時間計算させて定期的にRSS作って外部サービスと連携させてた。 RSS吐かせるのが恋しくなってFEED43試してみたら
pipesのときと同じ感覚で正規表現で抜き出せて安心した
有料プランも魅力的だけど高くて悩む