【RSS】 Yahoo! Pipes 2 【XPath】
レス数が900を超えています。1000を超えると表示できなくなるよ。
[Fetch Thread]
|
[Replace (>>1) with (乙)]
|
[Pipe Output] Replaceでいいのか?w
それはさておき>>1乙 前スレの最後らへんの人に向けて
Fetch Pageで取得した日付からpubDateを作成したいなら、2012月09月12日みたいな日付をRegexでDate Builderが
理解出来る形式(09/12/2012など)にしてLoopに入れたDate Builderに渡し、item.y:publishedとして保存するといいよ Loop[Date Builder]はちょっと昔だと定番のやり方だけど、今はCreate RSSを使った方が便利
日付は日本時間に合わせておいたほうがいいね
形式はISO8601にあわせて2012-09-10T00:00:00+09:00みたいにしとく すこし前になにかの仕様変更で日付と認識される形式がすこし変わった事があったような
それ以来読んでくれればなんでもいいってのじゃなく、ISOフォーマットにするようにしてる 生成されたフィードのソース見るとわかるけど、リンクが同じだとpubdateをいじってもguidが変わらず、更新されても反映されない事があるのよ
前スレに書いた、リンクにタイトルをくっつける方法は、それを避けるための苦肉の策 http://pipes.yahoo.com/pipes/pipe.info?_id=aaf2442ade64e6b377b9217868d9e38f
時間あったからfourspの作ってみた
ていうかpublishしてなくてもURL直指定すれば誰でも見れるんだよね?
あとユーザー名クリックでも他の自作pipeはpublishしてない限り見れないってことでいいんだよね? >>9
見れたよー。
ユーザー名クリックしても、a has no Pipes って表示されて見れないよー。 http://seikatsusoken.jp/teiten/
↑のサイトをxpath fetch pageモジュールで切り出した時に、
下記で取得できるdd要素とdt要素を1組にするような方法はないでしょうか?
//div[@class="report_theme"]/dl
dl要素以下に1つずつ並んでいるdt要素とdd要素を
dt[0]
dd[0]
dt[1]
dd[1]
dt[2]
dd[2]
以下のようにdt要素とdd要素の組み合わせで1アイテムとして取得したいです。
item[0] dt[0] dd[0]
item[1] dt[1] dd[1]
item[2] dt[2] dd[2]
該当サイトの例で言えば、下記のようなアイテムとして抜き出したいのです。
2012年3月 「圏づくり」から幸せになろう。
2012年2月 「圏づくり」は、人や消費を活性化。
2012年1月 「圏づくり」へ YQLでdtddをまとめるのを作ろうとしたら、
エラー999が出てなにもできなくなった
アクセス過多で一定時間蹴られた状態?普通にしてただけなのに・・・
>>12
http://seikatsusoken.jp/teiten/archives.html
こっちなら li でまとまっててやりやすいけど >>13
ありがとうございます!
archivesページで取得することにします。 なんとなく作ってみたけど、これdtいらなくないか?日付はリンクに入ってるし
まあYQLexecuteのサンプルってことで
http://pipes.yahoo.com/pipes/pipe.info?_id=3f0a323eb457b5369e2b45f578d60041
これが使ってるYQLtable http://pastebin.com/yTYnnCPp
YQLexecute便利だしみんなもっと使おうぜ
ちなみにexecuteのなかでpipeを走らせることができる
y.pipe("pipeID", {input1: "hoge", input2: "fuga"}).results >>15
なるほど、dtの内容はddのリンクに含まれる文字列を使えば良いんですね。
YQLも勉強になりました。ありがとうございました。 ツイッターがRSSやめるからこれか取得するサービスでもでてきてもらたいところ え、ツイッターのRSS止まるの!?
一体どうすれば… RSSはなくなるけどjsonはこれまでどうり使えるよ
そのままRSS登録してる人が困るのはわかるけど、
pipesスレの人が困る理由がわからない
pipesはそれをRSSにして吐き出すためのようなサービスじゃん Pipesは頻繁に更新してくれないから、
ツイート頻度の高いアカウント相手だとRSS直に比べて取りもらしが増えることはありそう で、twitterのjsonをRSSに変換するpipesを教えて。 優しい人がtwitterのユーザー名を入力すれば、jsonをRSSに変換してくれるPipesを作ってくれた。
ありがたい。 なんでこのタイミングかと思ったら、昔のTwitter RSSが使えなくなったのか
URLにapiが入ってない twitter.com/statuses/user_timeline/____.rss こんなやつ
いまはこれ↓で取得するのが標準になってる
api.twitter.com/1/statuses/user_timeline.json?screen_name=____
jsonのとこをrssにしたらこれまでと同じ形式だけど、json以外のrss,xml,atomは来年3月廃止
公式RTを含めるのは include_rts=true を付けるといい
>>21
標準では最新20ツイートだけど、countクエリで最新200ツイートまではいけるからよっぽど中毒の人じゃなければ問題ないかと
他のクエリで頑張れば最高で3200ツイートまでいけるみたい
pipes通す時点で速報性はなくなるけども
https://dev.twitter.com/docs/api/1/get/statuses/user_timeline Pipes通すと遅いわ。
twitter jsonをPuSHでRSSに変換してくれるWebサービス誰か作ってくれないかな。
広告フィードありで構わないから。 人に頼るほど難しいものでもないような
pipesの基本的な機能だし pipesでTwitterAPIを呼び出す人が増えると制限に引っ掛かって
取得できなくなることが増えるんじゃないの?
以前からのURLが使えなくなって以降しばらくスムーズだったような >>33
6つしかcloneされていないっぽいけれど 設定欄があるpipeはcloneしないと値を設定できないと思ってる人が案外多いのか
clone数が増えやすいけど、publishされてないと検索しても引っかからないからな なくなる可能性とかを考慮してんじゃないか?
全部自分の中でやりたいとか サブパイプから出てきたフィールドの扱い方がよくわかりません。
基本的に
1. あらかじめUser inputsのあるパイプを作る(=サブパイプ)
2. Loopを置いて、その中にさっきのサブパイプを入れる
3. inputやassign先を指定する
だと思うんですが、
これだと例えばitem.pubDateに加工するサブパイプを作った場合、
3.でサブパイプに対してitem.pubDateをinputして、
出てきたものを再びitem.pubDateにassignしても、
item.pubDate.pubDateに入ってしまいます。
改めてitem.pubDateにRenameすればいいだけなんですが、
この一手間が必ず発生するのが仕様なのか、
それとも私が何か基本的な使い方を知らないだけなのか…
サブパイプ(というかパイプ)はテキストだけのOutputはできなくて、
かならず item にしないといけないわけ。
だからサブパイプの出力が item.sub : hoge であるなら、
それをメインパイプでループさせて item.main に assign すると
item.main.sub : hoge になる。まあ仕様だね。 >>39
ありがとうございます。
そういうものだ、ってことですね。
とりあえず自分の間違いでないことがわかったので、
これからは安心して作れます。ありがとうございました。 何気にdapperが復活していた。
htppsをスクレイピングするのに助かる。 Clone作って全く同じSourceなのに、どうして俺のCloneはエラーが出るんですか 1.3月にtwitterAPI1.0終了。
2.twitterRSS難民が退去して来襲。
3.サーバー負荷、遅延続出。
4.マリッサ・メイヤー、Yahoo! Pipesのサービス廃止を決定。
5.阿鼻叫喚。
フォローするまでもないorフォローしたくない
けど読みたい。そんな時に使う。鍵かかってなければだけど。 非公開のリストに登録しても同じ事出来るよね。
あえて、RSSで購読ってのは、慣れてるからとか感覚的なモノ?
Pipes通せば、フィルタも掛けるの楽か。
古いのを検索できるように、メーラーで過去ログ取りに使ってる。 昔リストで読もうとして、何かがダメでRSSにしたんだよな
なんだったか忘れてたけど思い出した
フォローとかリストだとリプライが見えないんだ
リプライ相手もフォローしとかないと 1.ニュース、ブログ、twitter、Facebookページ、Google+、Podcast、Youtube、UST、ニコ動、tumbler、Flickr、Pinterest、500px、…フィードリーダーで一元管理できるのに、いちいちクライアントを切り替えるのが手間だから。
2.見てるだけ、つながりは不要。
3.Googleリーダーにぶちこめば過去記事の検索が可能。
>>47
俺は逆に読み逃したくないユーザー(リア友とか)だけフィード拾ってる 1つ目のアイテムのtitleと2つ目のアイテムのtitleを結合して
1つのアイテムのtitleにまとめることって出来ない? いままで、まぐまぐの最新号のみ公開の記事のRSSはdlvr.it経由でGoogleリーダーに登録していました。
今月からdlvr.itの無料アカウントが5フィードまで登録できなくなったので、Yahoo! Pipesに移行したいと思います。
まぐまぐIDを入力するとRSSフィードを生成する方法を教えて下さい。 Yahoo!リアルタイム検索の「注目のキーワード」
ttp://search.yahoo.co.jp/realtime
をXPath Fetch Pageで取得しようとしているのですが、取得ができません。
//p[@class="que_2"]/a
や
//div[@class="itm"]/p[@class="que_2"]/a
などで試しているのですが、どのように指定すれば取得できますでしょうか? >>60
上記リンクを含むページに飛ばされるの間違いだった 途中に挟むとUAを偽装するだけのサービスとかないかな >>60
Pipesからのアクセスは出来ないようになっているから取得出来なかったんですね
ありがとうございました
>>62
探してみたんですがそれらしいのが見つからないんですよね
>>63
取得できるキーワードは違うようだけど旬なワードが手に入るみたいです
助かりました、ありがとうございました PipesでTwitterの指定キーワードを含むツイート検索結果のRSSを取得しているのですが、
2013年3月のAPI規約変更以降は今まで認証が必要なかったツイート検索結果の取得もOAuth認証が必要となるのでしょうか?
PipesでTwitterのOAuth認証が可能なのかご存知の方お教えいただければ幸いです。 Translateがいつのまにか消えてるけど、もうpipes使って翻訳する事出来ないんだろうか この方法で翻訳できたよ
http://discuss.pipes.yahoo.com/Message_Boards_for_Pipes/threadview?m=tm&bn=pip-DeveloperHelp&tid=121185748&mid=121185761&tof=36&rt=2&frt=2&off=1 XPATH Fetch PageでXpathを //div[contains(@class,"body")]/p とかで指定して、例えば item.description で吐き出すと
description
0
1
2
3
4
って分割されて出力される。
それを Loop にセットした String Builder で
item.description.0
item.description.1
item.description.2
item.description.3
item.description.4
と記述して
Loopの吐き出しを item.description にすると、一つの description になるんだけど、
String Builder に一発で、例えば item.description.* みたいに記述出来ないのかな? >>66
まさかこんな有益な回答がもらえるとは
超サンクス クックパッドの話題のレシピ( ttp://cookpad.com/recipe/hot )のRSS取得方法分かりませんか?
ソース見ると料理部分をjsで表示してるみたいで取得できませんでした。 >>71
ttp://cookpad.com/recipe/update_hot_recipe
ただしリクエストヘッダに特定のものが入ってないと見れない
一応YQLで↓とやれば取得できるのを確認したけど、その後面倒になったから興味あれば続きどうぞ
y.rest('http://cookpad.com/recipe/update_hot_recipe').header("X-Requested-With","XMLHttpRequest").get().response; >>74
71で質問した者です。凄いです!ありがとうございます!ここまで完全に作ってもらえるとは思いもしませんでした。
YQL使ったことがないのでどうなってるのか全然わかりませんがcloneさせて頂き自分なりに仕組みを勉強しようかと思います。
趣味でPipes触ってるんですがやっぱりYQLとかSQL覚えないとこの先キツそうですね。。 いつの間にか、htppsもスクレイピングできるようになった。 あと1ヶ月ぐらいだっけ?twitterのRSS配信終了
Pipes経由に移行したいけどたくさん登録してあるからいちいちめんどいわ >>74
YQLドキュメントと格闘する事2時間、やっと大体分かったわ
store://がなんの事やら分からなかったけどMyYQLで作った自作tableか
これは何だか面白そうね 1.3月にtwitterAPI1.0終了。
2.twitterRSS難民が退去して来襲。
3.サーバー負荷、遅延続出。
4.マリッサ・メイヤー、Yahoo! Pipesのサービス廃止を決定。
5.阿鼻叫喚。 >>81
use "store://dXeXD216hAWocoqmWFAeGH" as cookpad; select * from cookpad
この部分の話ね
url「store://dXeXD216hAWocoqmWFAeGH」のユーザー定義tableをcookpadという名前で使いますという宣言文
select以下で具体的にデータを抜き出してる
>>82
その前にこのスレが阿鼻叫喚だろ >>68
> XPATH Fetch PageでXpathを //div[contains(@class,"body")]/p とかで指定して、例えば item.description で吐き出すと
このitem.descriptionで吐き出すってどうやるんですか?
自分でやるとitemsでしか吐き出してくれない twitterのRSSってそんな需要あるもんなんかな? 特定サイトのRSSとしては一番需要があるんじゃね? >>85
xpath fetch page は loop に挿れてる? >>88
ああ、なるほど
そういう使い方が・・・
ありがとうございました 俺はついったーやってないから分からないけど、URLにjsonと書いてあるからにはjsonなんじゃないの
fetch dataにかけてみれば pipes作りながらちょくちょく動作確認してると
badly formed responseエラーが出るんですけど、
これって、fetch対象のサーバーからアクセスしすぎという理由で
蹴られているんでしょうか? あ、すみません
単にxpathでtext()を使ったのが原因だったみたいです やってみたらfetch dataでjson展開出来るな。あとは使いやすいように各自加工すればよし。 あ、pipes歴数日なので
すごく珍妙なことやってると思います。
横からバリバリ駄目出ししてもらえると嬉しい あー・・・
その書き方の方が全然いいですね
勉強になります htmlからfetchしてrssを作ってpubDateを付けるときに、
今はdate builderでtoday指定しているのですが、
元になるhtmlのレスポンスヘッダから
dateを取得する方法って無いでしょうか?
pipes単体では無理っぽいのでYQLでもなんでもいいのですが YQLでこんなかんじ
select headers.Last-Modified from data.headers where url="http://www.example.com/" ありがとうございます
これでtodayから解放されます! RSSの全文化ってどうしてますか?
xpath→regexとかで整えて吐き出ししてるけど、pocketとかの本文取得サービスにlinkを渡して戻してもらう様なpipeを構築する事って出来ないのかな? 精度の違いはわからないけど、こういうの使ったらいいんじゃない?
ttp://fulltextrssfeed.com/ >>105
これとかfullrss.netとかは使ってるんだけど、本文取得はpocketが一番いいのよね。数ページにも対応してるし。
pipesのxpathはどうも適用できない構文がある感じだし、pocketのモバイライザみたいのが無いかなーって思ったんです。 pipes使わないで済むことなら使わない方が満足度高いと思うけどね
(更新遅いから このスレで言うのも何だけどpipesは最後の手段よ
グリモンとかローカルscriptで何とかなるのならそっちが良い >>106
どういう動きを想定してるんだろう
RSS取得
↓
未読文章をPOCKETに登録
↓
POCKETの個別ページから全文を取得
↓
元のRSSに差し込む
↓
出力
こんな感じ?すげえ重そうw >>109
pocketは登録メアドからpocketサーバにリンクアドレスを送ればページの体裁を整えて登録pocketに返してくれる仕組み。
そのページを整える機構にpipesからリンクを送ってpipesに返してくれたらpipesでの処理はシンプルになって良いかなって思って。
fullrss.netは便利なんだけど、wedataのデータベースに寄る処理が行われるが反映が遅いし、失敗したxpathを登録しちゃうと他の人に迷惑かけてしまう場合も有る。 あ、そうなんだ
POCKETのAPI使ってOAuth認証して・・・って考えてるのかと思ったわ
記事をPOCKETに登録さえできればRSSに本文は出力されなくていいの? >>111
RSS本文に埋め込みできるのがベストです。
pocketモバイライザ(?)からpipesにリターン出来たら色々と加工もできて楽しそう。 xpath fetch pageで取得したitemに画像が含まれているのでfeedに表示させたいんですがどうやったら出来ますか? >>113
item.img.srcに画像のアドレスが入ってるとしたら
loopのなかにstring builder入れて
<img src="
item.img.src
">
をitem.descriptionに書き出す 間違えたw
>>114
出来ました!ありがとうございます! 今までキチンと動いてたのが幾つか文字化けしだした
なして(´・ω・`) >>117
俺もだわ
多分pipes側の不具合だから直るの待ちかな みんなそうなのか
XPATH Fetch PageでもYQLのhtmlみたいに文字コードが選択できればいいんだけど Yahoo!JAPANのニュース記事本文がxpath fetch pageで取得できない
向こうから弾かれてるの? ここのとこ暇な時間ずっとpipes作ってたのに、
文字化けのせいでやる気がしない [ ってどうやったら消せるんでしょうか?色々試したのですが、自分では解決出来ないので教えてください。 yqlでrssの取得はできるんだけど、そのrssのリンク先からxpathで取得まで出来るのかな?
rss本文取得は fetchfeed → xparhfetchpage を使うけど、yqlなら一発なのかなって思ったんです。 答えてあげたいがyqlのドキュメントってすごくふんわりしてて、
大体わかるだろ?空気読んで使えな?って感じで
俺にはさっぱり理解できない
詳しい人が来るの待ってくれ >>123
何が言いたいのかわからないので
つまってる所でpublishして公開して >>127
regexの[の前に\(バックスラッシュ)を入れるんだよ。
正規表現の記号に[があるから\[って記述する必要があるんだろう。
>>125
わしもyqlは何か凄そうなのまでは理解できるんだけどw。
詳しい人待つか~ >>126
補足 regexに \[.*?\] で[タイトル]とかの[○○○○]はマッチできるよ。
連投すまん すまん >>129 は >>127 への返信でした。 >>128>>129
出来ました!ありがとうございます ちょっと文字化け調べてみたけど、文字コードがshift-jisで、レスポンスヘッダではなくmetaタグで文字コードを伝えている場合に起こるみたいだね
(余談だが厳密に言うとやってはいけない)
割と長いこと放置されてるし、こちらからyahooに働きかけないと直してくれないのかなあ blogみたいな動的なサイトならほとんどヘッダで文字コードを吐いていると思うので
古き良き静的htmlファイルを読み込んだ時に起こるんじゃないかと思う もう少し調べてみた
レスポンスヘッダで文字コード指定をせずに、
metaタグでやってる場合には
強制的にutf-8で解釈されるっぽい
だからeucjpやsjisだとアウト あら、metaタグのみでshift-jisだけど文字化けしないサイト見つけてしまった
真面目に自分でサーバ立てて調べないと意味無さそう それはいったんバイナリで読み込んでShift-JIS指定して変換とかしないと無理
YQLでテーブル自作すればいけるかもしれんけど androidのGoogleカレントってRSSリーダにPipesで作ったRSSを流してる。
RSSをGoogleリーダ経由で登録のした時は読み込みして表示されるんだけど、
その後、一切更新されないんだよ。
同じRSSのGoogleリーダは更新されてる。
何か、RSSに必要な何かが足りないんだろうか?
カレントとPipesを連携してる人が居れば、ご意見お願いします。 誰か英語ができる偉い人。
Shiftjisの文字化けの件、Yahooに問い合わせてくれ。 すまん、エッチなサイトのRSSばっかり作ってるから問い合わせにくい>< それはたぶんこの辺りの話じゃないの
http://discuss.pipes.yahoo.com/Message_Boards_for_Pipes/threadview?m=tm&bn=pip-DeveloperHelp&tid=3296&mid=3303&tof=-1&rt=2&frt=2&off=1 Googleカレンダーで外部iCal読み込む時も同じこと起こるんだよなぁ・・・ >>142
広告読まないで済むように作ってるのに
公開して広まったら対策されちゃう>< で、文字化けの解決方法はどうしたらいいの?
教えて偉い人。 上に晒したforumの奴は、どうも外部サイト経由して解決してるみたいだな
回答のpipeが動かないんで検証のしようがないけど YQLでcharset指定すれば?
select * from html where url='http://example.com/' and charset='Shift_JIS' and xpath='//hoge' pipesから吐き出されるRSSのchannel要素を指定できるpipesモジュールってあるん? channelのdescriptionを右上のpropertiesで記述するくらいだし
ないんじゃないの? YQLモジュールでできるよ。
RSSをXMLとして扱う。
select channel.title from xml where url="http://rss.news.yahoo.com/rss/topstories" >>150
それでpipesがchannelを取得はできるんだろうけど、
pipesが吐き出すRSSのchannelを設定したいんです。
要はpipesから吐き出したRSSですって情報の変更や、
DateのGMTを0:00から+9:00に変更って事です。 >>146
以前はこのサイトを経由すれば解決したみたいだね
http://william.cswiz.org/tool/xmliconv/
しかし、アクセスしてみればわかるけど終了したみたい yqlでRSSをからtitle,linkを取得。
loopモジュールにyqlを突っ込んでlinkからxpathで全文取得したい。
loopモジュールに突っ込んだyqlには何て記述すれば良いんでしょうか? >>153
>>147こんな感じで、charsetが要らないなら抜いとけ >>155
YQLでRSSからtitle,linkを取得→loopにYQLを突っ込んで取得したlinkからYQLでcharsetを指定してxpathで抜き出ししたいって事。
xpath fetch pageだと文字化けしてる場合にcharsetの指定ができないから文字化けしてる場合は
YQLを使えないかな?って意味です。
select * from html where url=item.link and xpath="//div[@class="blogbody"]"
てな感じでloopから取得されるitem.linkがしめすurlをYQLに指定させられないかな?って事です。
文字化けしないならxpath fetch pageで良いんです。 補足
[YQL RSS]→[loop[YQL item.linkからxpath]]→[pipeout]って流れです。 loop+yqlの前段階でloop+stringbuilderでクエリーをあらかじめ作成すればいいじゃない >>158
YQLの〜 url=" " の部分には何て入れれば良いのでしょうか?
pipesモジュールから発行されたlinkをYQL内に記述出来る方法があればな〜。 [loop(string builder)]をかませても各リンクurlがitem的に吐き出しされますよね。
その吐き出されたitem的な内容をYQL内に記述する必要があると思うのですが、
その記述が判らないのです。
url="http:// "の記述の部分にそのitem的ものを記述する必要があると思うんですが、
そこが違うのでしょうか? 要は取得したRSSのlinkからxpath fetch pageで全文取得するpipeを作成してるのですが、
xpath fetch page では文字が化けるので[loop(xpath fetch page)]の代替として
charsetの指定ができる[loop(YQL)]を採用しようと考えたのですが、[loop(YQL)]内のYQLの
記述の中でどうやってurl=""に当たる部分の記述をすれば良いのか?出来るのかな?
って事なんです。 >>158
>>160
すみません理解しました!string builderで記述一式を作成し、url=" "の部分だけitem.linkを設定しておけば良いのですね。
長々と申し訳ありません 結果をお知らせします。
[loop(string builder)]→[loop(YQL)]でYQLによるitem.linkからのxpathによる内容取得は可能ですが、YQLにはxpath fetch pageのemit items as stringのオプションが無いのでRSSの全文化には適しませんね。
文字化けはyahooの対応を待つことにします。 お前はちょっと頑張って検索するくらいしろや
html→htmlstring 164じゃないけど
htmlstringはcharsetが指定出来ないんだよ >>165
確かにYQLの簡易解説のページのしたの方にhtmlstringありますね。
よっしゃって思ったんですが、 >>166 で(T-T) 質問です。
Yahoo!ニュース内の「スポーツ報知のスポーツカテ内のニュース」、
できれば「スポーツ報知のサッカー関連ニュース」だけをRSS出力させる事は可能ですか?
feed43を使って、「スポーツ報知のスポーツカテ内のニュース」のRSS化はできたのですが、
2ページ目以降は漏れる事が分かったので、可能ならば、Pipesにチャレンジしてみようかと思いまして。
技術的には、feed43がどうにか使えた程度です。 アドレスくらい書けよ・・・
というのが正直な気持ちです
俺らが検索して探すのかよ
それはともかくyahooの方見てきたけどちょっとサッカーであることを判定するの面倒臭そう
スポーツ報知本家のほうがサッカーでカテゴリー作ってるから楽じゃないかと思うけど
yahooニュースじゃないといけない理由あるの? >>169
レスありがとうございます。詳しく書きます。
FeedlyでRSS管理しています。
Yahoo!ニュースでニュース提供社ごとのRSSはあるのですが、スポーツ報知はありません。
スポーツ報知に拘るなと言われればそれまでですが、「スポーツ報知」の検索結果 - Yahoo!ニュース
http://news.search.yahoo.co.jp/search?p=%E3%82%B9%E3%83%9D%E3%83%BC%E3%83%84%E5%A0%B1%E7%9F%A5&vaop=a&to=2&st=&c_=c_spo
を、
http://feed43.com/
でRSS出力はできたのですが、Feedlyで選択した時点の1ページ目しか無理のようです。
Yahoo!ニュースがいいのは、コメントも見たいからです。
ですから、Yahoo!ニュースに行って読むので、全文配信でなくてもいいです。
RSS配信していない他のニュース提供社にも流用できるでしょうし。
スポーツ報知のサッカー関連ニュースであることは、検索では絞り込めませんでした。
個別記事のアドレスの末尾が-sph-soccであることくらいでしょうか。
可能だとしても、feed43とはレベルが違うならあきらめます。 あ、末尾で分かるのか、それは気づかなかったわ
言い訳だがこの辺は自分の読みたいRSSのために必死になってる人しか分からんな
それなら多分できそうに思う ちょっと待ってて 一応作りはしたけど、yahoo pipesは更新が遅く、
feedly(が使っているgoogle reader)は使用しているユーザー数が少ないフィードは
あまり頻繁に更新を確認しないという二重苦があるので
速報性が求められるニュースにはあまり向いていない、というのが実情だったりする >>172-173
二重苦、ニュースにはあまり向いていない、ですか。
ソース見させていただきましたが、まったく理解できません。知識ゼロからやるには、あまりメリットないんですかね。
せっかく書いていただいたので、いろいろと調べながらいじってみようと思います。諦めるかもしれませんが。
わざわざありがとうございました。 使わなかったからって機嫌損ねたりしないのでそこは心配しなくていいです
自分の目的に一番合致したツールを見つけて、使いこなしてください
pipesでhtmlを解析してrssを作りたい場合はXPathの知識が実質必要になると思います
XPathは、ファイルパスに似せたノードなどを特定するための表記法です
ファイルパスに似ているだけあって身構えなければそれほど難しくはないはずですが、
これができないとあまり凝ったことはできないので、
自分の手には余ると思ったら他のツールを使ったほうがいいかもしれません 例えば1日1回、朝にRSSを確認するような利用スタイルだったとして、
最悪1日くらいは見るのが遅れてもいいけど
自分が指定した情報全てに目を通したい・・・という利用法だと
yahoo pipesはお勧めです 更新時間にこだわらないのであれば、Dapperで自作してみれば…。 1ページの表示件数をURLで変更できたら楽なのにな fetch feed
http://rss.dailynews.yahoo.co.jp/fc/sports/rss.xml
↓
fetch page
<!--SOURCE--> から <!--SOURCE-->
item.descriptionで吐き出す。
↓
filter で [permit] items 〜[any] of following
item.description [contains] スポーツ報知
↓
pipe output
でどうよ?
fetch page の範囲をもうちょい広げてもいい。
fetch pageは非推奨になってるから YQL と xpath fetch page が良いと思ったんだが、うまく動かんな。 >>179
すまん fetch page は loop に突っ込んでね。 >>179
元のitemが8個しかないから厳しそう みなさん、いろいろとアドバイスありがとうございます。
ぼちぼち理解できてきたのですが、>>172さんの、Extract using Xpathで-sph-soccまでズバッと指定するのは難しかったので、
Xpath Fetch Page : http://news.search.yahoo.co.jp/search?p=%E3%82%B9%E3%83%9D%E3%83%BC%E3%83%84%E5%A0%B1%E7%9F%A5&vaop=a&to=2&st=&c_=c_spo
Extract using Xpath : //div[@class="l cf"]/h2/a
↓
Rename : item.href Rename link, item.content Rename title
↓
Filter : Permit item.link Contains -socc
↓
Pipe Output
でサッカー記事だけ抜き出せました。
で、また質問で申し訳ないですが、大前提の「2ページ目以降は漏れる事を防ぐ」には、2ページ目以降も指定して、重複削除という方法でしょうか。
まさに>>172ですね。 >>182
2ページ以降の検索urlには末尾に11とか21とかつくから、そのurlに対しても同じ処理をすれば良いんじゃない?
チカラ技になるけど。 >>182
172でXpath Fetch Pageが二つあるのはそれをやっているからですよ 今見直してみたけど、この スポーツ報知 で検索かける方法あまりいけてないかも
ちょっとまってて http://pipes.yahoo.com/pipes/pipe.edit?_id=99e9e44a67d30237aa45d443d10030f9
はい。
一度自力で完成させているということなので、今回は最後までやって見ました。
>>172は自分が原因のミスがあって、ヒットする記事数が少なくなっていました。
すみません。
それを修正してあります。
後は分かりやすいように、Xpathとfilter operatorの二段階で目的のノードを探しています。
pubDateには手を付けてないので、改造したいのならここをやってみるといいかもしれません >>184
すばやい解答ありがとうございます。うたた寝してました、すいません。
>>185-188
String Builderの所が難しいなと思い、二つ指定してある理由を考えてませんでした。
thumbnail出力やら、Create RSSモジュールやら、また新しいのが出てきましたw
また参考にさせていただきます。ありがとうございました。 thumbnailは簡単な法則でもう少し大きな画像を用意できるので
http://amd.c.yimg.jp/im_siggihfJCqJjueFplJvIzKX8lg---x60-y60-q90/amd/20130225-00000206-sph-000-1-thumb.jpg
↓
http://amd.c.yimg.jp/amd/20130225-00000206-sph-000-1-thumb.jpg
この変換を正規表現で行って、media.contentに指定したり、
item.descriptionの中に混ぜてやると良いです
(ややこしくなりすぎると参考にするのに向かないので>>188には組み込んでいません)
feedlyは画像があるかないかで見やすさがだいぶ変わってくるので余裕があったらがんばってみてください 前からなんだけどRSSのValid判定が厳しすぎる。
一文字目にスペースが入ってたり、一行目が空行だったりすると
すぐRSSじゃないよってエラーだして取得してくれない。 そんなこと今まで経験したことないわーって思ってたけど
今日ちょうど起きたわw 今まで
select * from oauth where uri='https://api.twitter.com/1/statuses/home_timeline.xml〜
みたいな感じでtwitterのタイムラインをxmlで抽出してたんだが、
API 1.1になってから.jsonしか受け付けなくなったのでもうだめぽ。
ってpipesに直接関係ないな 文字化けが一向に直らないし、
文字コードを指定できるXPath Fetch Pageを作ったので置いておきますね。
Emit items as stringには対応してませんが…
http://pipes.yahoo.com/pipes/pipe.info?_id=d2987515b0e0aa1527fbc8fecb1d51c0
cloneしてご利用ください。 ここまで長引くとは思ってなかったな>文字化け
もうYQLのコマンドを指が覚えてしまった >>196
あーすごい
自分では使わないと思いますけどいろいろ勉強になりました ttp://tv2ch.com/jlab-10s/s/10s1057148.jpg 外部のサービスを使わずに、YQLだけでcharset指定できるhtmlstringを定義することはできるんだろうか。
>>196 はどうやってるんだろう… よう判らんけど、直接YQLモジュールにクエリを入れてるのと同じじゃないの?
YQLモジュールにcharsetを指定したhtmlstringの取得が不可なら、 >>196 でも
不可じゃないのか?
use "store://vmfZbKuU2I4M8nEUv3FOhl" ってのは何かの外部サービスなんかな?
ならYQLモジュールにそう記述すれば良いんでないの? useとyql.storageについて調べりゃわかるよ >>202
スマン。
意味は理解できるが、正直しんどいので実質無理。 O
o と
。 ,. -ー冖'⌒'ー-、 思
,ノ \ う
/ ,r‐へへく⌒'¬、 ヽ キ
{ノ へ.._、 ,,/~` 〉 } ,r=-、 モ
/プ ̄`y'¨Y´ ̄ヽ―}j=く /,ミ=/ オ
ノ /レ'>-〈_ュ`ー‐' リ,イ} 〃 / タ
/ _勺 イ;;∵r;==、、∴'∵; シ 〃 / で
,/ └' ノ \ こ¨` ノ{ー--、〃__/ あ
人__/ー┬ 个-、__,,.. ‐'´ 〃`ァーァー\ っ
. / |/ |::::::|、 〃 /:::::/ ヽ た
/ | |::::::|\、_________/' /:::::/〃 O
o と
。 ,. -ー冖'⌒'ー-、 思
,ノ \ う
/ ,r‐へへく⌒'¬、 ヽ キ
{ノ へ.._、 ,,/~` 〉 } ,r=-、 モ
/プ ̄`y'¨Y´ ̄ヽ―}j=く /,ミ=/ オ
ノ /レ'>-〈_ュ`ー‐' リ,イ} 〃 / タ
/ _勺 イ;;∵r;==、、∴'∵; シ 〃 / で
,/ └' ノ \ こ¨` ノ{ー--、〃__/ あ
人__/ー┬ 个-、__,,.. ‐'´ 〃`ァーァー\ っ
. / |/ |::::::|、 〃 /:::::/ ヽ た
/ | |::::::|\、_________/' /:::::/〃 Googleリーダーが終わるみたいなのですが代替なにかありますか? GoogleリーダーはもともとPipesとは相性悪いからな
使ってなかった人も多いんじゃない? スマホで捗るためにはほぼgoogle reader一択だったので http://blog.feedly.com/2013/03/14/google-reader/
FeedlyがApp Engine上で動くGoogle Reader API互換のクローンを作るらしい API完全互換なら楽で良いな、script使って未読数取得とかしてたから
auth回りを変えれば良いだけとかなったらいいな Google Reader 代替にFeedly が名乗り。他社アプリのAPIアクセス受け入れも表明 - Engadget Japanese
http://japanese.engadget.com/2013/03/13/google-reader-feedly-api/ もう文字化け直す気無さそうだなw
文字コード決め打ちするのって頭いいとは言い難いけど
もう全部yqlに置き換えるわ 偉い人、これを参考にして、Twitter API1.1のJSONからRSSフィードに変換するWebサービスを作って。
How to Get RSS Feeds for Twitter Searches, Lists and Timelines
http://www.labnol.org/internet/twitter-rss-feeds/27931/ TwitterAPIを叩く方法を知らんけど、OAuth認証とかじゃなければ変換だけならPipesで出来るでしょたぶん
Fetch DataでJson読めるんだから >>218
だからさぁ
Twitter has completely switched from XML to JSON format and the other big change is that all requests to the Twitter API must now be authenticated with OAuth. OAuth認証か、じゃあYQLでopen data table自作だな、たぶん出来る
Twitterなんか使ってないから俺はしないけど >>220
うわあ
俺様はできるよ。でもやってやらないよ。
だったら引っ込んでろよ。 方向性は示しただろ、誰かが何とかしてくれるのを口開けて待ってるだけか
まあ心配すんな、Twitterユーザーは世界中にいるんだからご要望の品を外人が作るさ >>219
これぐらい指摘できる奴は作れるんじゃないか? まあdlvr.itあたりがサービス始めるのを待つよ。 例えばttp://..../aaa.cgi?page=1からpage=5までをまとめるにはどう記述するのが一般的ですか?
数字の部分だけを1から5までループさせて
ソースを取得したりするような機能とかありますか? そういう単純なループは出来ないんだよね、forループみたいな機能はないから
1から5までURL作ってloop moduleで回すしかない 取り敢えず力技でXPath Fetch Pageを五つ作ってUnionでまとめましたが、
Loopのほうが優れている点があれば
アドバイスください。 速度的には変わらんのじゃないかな、単純に手間とメンテナンスの問題
unionとloopのpipeをそれぞれ作って実行速度を比較してみればいいんじゃね >>225
まとめるって何をまとめるん?
そのlinkからxpath fetch pageで何を取得するのかな? せっかくどっかの誰かが作ってくれたのに、あんだけ騒いでたアホは反応なしかよ >>225
横にダラダラ並べたくない場合はこう書くのが一般的じゃないかと思う
http://pipes.yahoo.com/pipes/pipe.edit?_id=62f1cdb75eeff1a447d3b11d956bbd5b
横に並べるよりはマシとはいえ、hoge=1 hoge=2 hoge=3・・・と打っていくのは
相当頭悪い行為だし、
yqlを使って、開始番号と終了番号とURLの形渡してやったら
これと同じitemsを返してくれるpipesを書くのが一番いい気がする >>71の方がやってることで3つ質問があるのですが
・ttp://cookpad.com/recipe/hotの語尾をupdate_hot_recipeとしたこと
・y.rest(' 〜 とは
・yqlでのuse "store://dXeXD216hAWocoqmWFAeGH" as cookpad;の部分がxmlではなく「store://〜」よくわからない文字なのはなぜか
上記3点がまったくわからないのですが
どなたか教えていただけないでしょうか >>237
返事が遅くなってごめんなさい
回答ありがとうございました メタラーってメタル信者ってイメージがあるんだよね
オレは音楽として好きなだけで信者じゃないって言いたかった ここにいる人はとっくに知ってるかもしれないけど、こんなのあったのか
ttp://rssc.dokoda.jp/
dapperなんかいらんかったんや! ここにいる人はとっくに知ってるかもしれないけど、こんなのあったのか
ttp://www.twitter-rss.com/ FC2ブログのRSSをYahooPipesで読み込もうとすると
エラー起きて読み込めなくないですか?
うちだけの環境なのかな・・・ Windowsなら ツール > オプション > プログラム > Webフィード
Macなら FireFox > 環境設定 > プログラム > Webフィード ぐぐるりーだーがアレなんで久しぶりに弄ったら、エディタ画面でfeedのitemが何件あろうと吐き出しは100件なんだね
昔からこんな仕様だったっけか 100件って多いようで少ないな、似たようなfeedをまとめると100件なんかすぐ超える やっと規制とけたわ
>>243
fc2のRSSは短期間に何度もリクエストすると
一定時間アクセス拒否されるっぽい
(アクセス拒否と言ったけど、エラーメッセージまで確認してないので実際にどういう処置なのかは分からない)
これは普通に使ってる分には問題ないが、
fc2のRSSをフェッチするyahoo pipesを組み立ててるとあっという間に制限に達する
なので、fc2のオレオレRSSを作りたい場合は
・pipesが完成するまでは、RSSを別のサーバーにアップロードして、それを読み込むようにする
・RSSをフェッチするのをやめて、ブログのhtmlからpipesを作る
のどちらかでやるのがいい Twitterの件で騒いでるやつがいるかと思ったら静かだな
みんな既に1.1対応pipesに移行してたか >>253
一応OPMLダウンロードしておいたけど、
feedlyからワンボタンで移行させたるわってメールが来てたわ
あ、googleに実名で登録してる人は
OPMLファイルにファーストネーム載っちゃってるから注意な Pipesで作ったRSS、Feedlyだとサムネ表示が上手く出来なくて
めっさ困る
GoogleReaderの時はちゃんと表示されてたのに… >>256
表示される画像とされない画像があるよね
サイズが小さいと表示されない気がしてる Feedlyはタイムスタンプ機能があるようで、これまでPipesやdlvr.itを通していたフィードが直接登録できて、こりゃ便利だわ。 質問なんですが
Uniqueの逆で重複したものだけ残すってできますか? 昨日から自分で作ったpipesのほとんどで999エラーが出るようになってしまいました。
Sorry, Unable to process request at this time -- error 999.
一時的なものかと思ったのですが、今のところ改善されていません。
原因や対処法などがわかる方はいらっしゃいますか?
今の状態ですが、確認した範囲では9割くらいのpipesがエラーになってしまいます。
infoとrunのページが999エラーになります。
作ったpipesの一覧は表示されます。editや一覧からのclone作成はできます。
昨日一斉にエラーで止まってしまったようです。 Why am I getting "999 Errors" from pipes.yahoo.com?
A 999 error implies you are over utilizing our service.
Please try throttling back the number of requests made to the Pipes site and within a few hours you should no longer be blocked.
The Pipes team puts these measures in place to protect the overall experience for its users.
What are the usage limits for Pipes?
200 runs (of a given Pipe) in 10 minutes
200 runs (of any Pipe) from an IP in 10 minutes
If you exceed the 200 runs in a 10 minute block, your Pipe will be 999'ed for a hour.
We currently are not raising rate limits. This may change in the future. >>261
ありがとうございます。
アクセス制限の条件が厳しくなったのでしょうか...。
とりあえず、もう少し様子を見て、元に戻らなかったら、pipesを分散させてみます。
かなりの量があるので、気が遠くなりそうですが...。 全文表示RSSとかああいうアクセスが大量に発生するpipeじゃないの、俺の所は何ともない 一つのミニブログの最新記事だけを読みに行くだけだよ。さいきん使い始めたからタイムリーに999がでて泣ける。ツイッターでも愚痴ってるやつがちらほらいるな 有料でもいいから(金額にもよるけど)無制限にして欲しい。でも、英語わからん。 別アカにコピーしてみた。
ブラウザでは表示されるけど、twitterfeedに流すと999エラーが出る。多分、dlvrも同じだと思う。 コード書くのがめんどいから使ってたのに、ただでさえpipesはクセがあってやっと慣れてきたのに。色々めんどいなあ アクセス数に関係なく、twitterfeed、dlvritからのアクセスは全部999ではじいてるっぽい。 多分時間あたりの実行回数は、ipアドレスごとに見てるんだろう
こういうやり方だとネットワークRSSリーダーや他のマッシュアップサービスが
あっという間に上限に達するから、
そいつらはホワイトリストで普段は弾いてる
(あるいは別の条件で判定してる)
けど、そのホワイトリストに何か異常があったとかじゃないかな 999の規制が解けないな
串経由なら使えたからIPアドレスで焼かれてるんだろうな ところで、文字化けの問題って結局直ったの?
まだ放置? 不思議と類似サービスってでてこないよね。有料でも需要あると思うんだけど。git使えたらなあ 数日前からhttp999エラー出るんですけどもしかして個人的な問題ではないの・・・? ネットからでは無理っぽいし、ローカルで行儀よく使うしかないのかな >>289
今回は世界的に騒ぎになってるから
これとはまた別件だと思うよ >>291
それへのYahooからの返事がすがすがしいまでのテンプレ返事でワロタ dlvritに流していたpipesが一瞬だけ復活してました。ずっと999だったのが、一度だけpostに成功してて、その後、また999...。
完全にブロックされてるのかと思ったけど、いちおう解除されることはあるようです。でも、解除されてもアクセス数が多いから、一瞬のうちに制限に引っ掛かり、滅多に自分のところには回ってこない。それで止まっているように見えたようです。 自分が一番使ってるpipeの場合だと、1つのpipeをパラメーター変えて40個登録して
それぞれ15分に1回のペースで取得してるけど、それでも999は出た事ない。
自分のIPで取得してるから?999出る人は別サービス経由?
それとももっとヘビーな使い方してるの? エラーの内容なんかどうでもいいけどfeedlyがクロールしてくれない Google Readerと一緒で、みんなで使う系のやつは登録者が多いの優先で取得するから
自分だけしか見てないようなフィードは一日一回とかになるんじゃないの 2-3日前からpipesのクロールが完全に止まってる >>298
そんな気がする。パブリックのやつは999でてない。 あきらめて、phpでコード書いてます。php、ほぼ初心者なのに...。
現状回復まで半年くらいかかりそう。
pipesに依存し過ぎてるという不安はあったので、いつかはphpで書こうとは思っていたんだけど、サーバーの設定とかセキュリティとか、どうすればいいのか、全然わからないんだよね。
phpに移行したらしたで、また落とし穴がありそう。 pipesの代わりのことしようと思えばどうすればいいんだ
php勉強すればいいのか? いままで
Google news
Pipes
dlvr.it
だったのを
Google news
Pipes
feedburner
dlvr.it
間にfeedburnerを通したら投稿できだした >>302
パースさえできればあとはどうにでもなりそう。問題は常時起動するためにレンタルサーバーを使う必要があること。設定もめんどくさそうだし。家のパソコン付けっ放しにも限界あるしなあ。 >>309
今ならpc使わなくても、使わなくなったスマホとかでもいい気がする 本当だ、間にfeedburner挟んだらfeedlyでも読めた <?php
$rssurl = ($_GET['rssurl']);
//RSS取得
$dom = new DOMDocument('1.0', 'UTF-8');
$dom->preserveWhiteSpace = false;
$dom->formatOutput = true;
$dom->load($rssurl);
$content = $dom->saveXML();
header("Content-Type: text/xml; charset=utf-8");
echo $content;
?> >>312
rssのurlを指定して、それをそのまま吐き出すphpプログラムを作ってみました。というか、パクってきました。ここまで、約10時間...。
これをrss.phpとか適当なファイル名で保存して、phpが使えるサーバーにアップロードします。
サーバーのアドレス/rss.php?rssurl=元のrssのurl(urlエンコードが必要)
urlエンコードはここを使いました。
http://home.kendomo.net/board/decode/decode.php
デコードではなくエンコードするにチェックを入れ、文字コードはUTF-8に。
ロリポップでは999が返ってきましたが、マイナーなサーバーでは使えました。人知れずこっそり使えば、なんとかなるかな? >>313
はじめから整形されてるなら必要なくない? >>314
自分でも何か方向性が間違ってるような気がしないでもないのは確かなんだけど...。
これでpipesの999エラー回避ができないかな、と思って。 >>311
やってみたけど途中でエラー吐くようになったわorz >>316
みんな一斉にfeedburner挟むようになって、feedburnerもアクセス制限にひっかかるようになった感じでしょうか? >>317
勘違いでしたわ。普通に通った。これからburner姉さん使わせてもらう さっそく文字コードでつまづいてる...。
linkにUTF-8以外のurlエンコードされた文字が入ってると、dlvritでpostした時に、正常なリンクにならない。
php、簡単そうで、難しい...。 文字コードで躓くとか遙か昔の俺を見てるようで微笑ましい、まあム板でもマ板でも好きな所行ってやりな もう、スレチ!?
ごめん、いちおう999回避の話だから、ここまではOKだと思ったのに。
自分ではわきまえているつもりだったけど、狭いですね。失礼しました! 文字コードで詰まってる話し始めたらそりゃスレチもいいとこだわw狭いとか広いとか以前の問題。やんわり諭されたのに何をキレてんだか https://twitter.com/twf_support/status/358136582697521153
twitterで見つけた情報、自分で見つけたわけではないのでちょっとアレなんだけど
yahooによるとあと数日で直すらしいよ あ、勝手に数日とかいったけどそんなこと書いてないな
ただyahooは問題を認識していて、修正するつもりではあるらしい burnerかましてたけどpipes様がへそをお曲げになられたぞ >>328
確かに土曜日ぐらいからまったく更新されなくなった。 pipes様が息をしていらっしゃらないのでfullrss.netに切り替える。登録メンドクセ 例えばマクドナルドのハンバーガーについて話すスレがあったとする
でもマクドナルドのハンバーガーがまずくなったから自分たちで作ろうという話題になる
そこで>>322がパンの原料になる小麦の育て方はどうするのがいいかという話題に長々と8レスを費やす
お前らはこれでも出てけと言うのか?思ってたより狭いな まともな頭なら「ハンバーガーを自作するスレ」にでも行くだろ
しつこいな君は >>333
これはよくないな。てかアフィ違反でもあるな 全文化のスクリプトがあれば
自分とこでやるんだけどなあ 少なくとも文字コードで躓いて狭いとかほざくやつは使わないでほしい ちょっとスレチだけど、全文化って異常だよな。
全文配信してくれりゃ良いだけの話で、googleカレントとかで米のコンテンツの充実ぶりを見ると、日本の事情は泣けてくる。 全文配信によって、ユーザーのもとに必要のない記事まで届けられる→サーバーコストの増大
読ませることができる広告が減る
というわけで、サイト側からすれば
全文化なんて百害あって一利なし
そもそもRSS使うようなユーザーはリテラシーが高く
広告なんか絶対に踏まないから
サイト側からみていい客ではないからな RSSはあくまでお知らせだからね。ってかpipesほんと全滅だわ。feedburner挟んでたfeedlyのやつ全部配信止まってる。もうスクリプト組んで巡回させるわ エラー出なくなったみたい。
ずっと拙いphpプログラムに置き換える作業をしていました。半分くらい置き換えたところなんだけど、このままphpに移行するか、pipesに戻るか、とても悩むところです。
ところでKY呼ばわりされたり、「ほざくやつ」とか言われてるけど、そんなに迷惑掛けましたか? >>341
参考までにどうやってるのかソース欲しい。 みんなからクレクレして貰ってスカッとしたいんだろうけどいい加減しつけーよ あれだけ警告しても改めないんだからあらしだよねもう >>342
また、KYとか言っていじめられるから勘弁して下さい。(過去スレを参考に)
phpに詳しい、"まともな頭"の人がきっと「pipesをphpに置き換えるスレ」を立ててくれると思いますよ♪
>>343
全然そんな気ないですね。ご自身がそういうタイプの人間だからそういう発想が出るのかな?
>>344
全スレ読んで、スレチ、あらし狩りでもすれば? プログラミング覚え立ての頃は意味もなく誇らしいんだよな
要望を見るとscriptを必死で作って、「簡単に作っただけだから出来が悪いけど」なんていいつつスレに晒したりして
よく考えると初心者の作った奴なんか出来が悪いし無駄な処理多いんだけど >>320 >>321
善意の発言
>>322
このスレの許容量狭いな、と感じたけど、それをスルーできない自分の心も狭かった。
ということでいいかな?
これ以上やると本当に荒れちゃいそうだから。 Pipesの代わりになるwebサービスって無いのかね?
こんな時のために簡単に避難できると良いんだがな >>348
ここに晒すとアクセス集中して使えなくなるから晒さない
TwitterRSSの悲劇を繰り返すわけにはいかないからね レスが増えてるとpipesが鳴いたから見に来て見たら案の定、アホが荒らしててワロタw とりあえずfeedlyでppesがクロールされるようになったな
あとプログラマーなんてこのスレでは珍しくもないだろたぶん
PHPが使えるようになって少しばかり誇らしげだけど 使えてなさそうだけどな。あんなクソコード晒せる神経は中学生までだわ pipes→burner→dlvr4つあるんだけど1個ちゃんと動かなくなった
pipesを直接見に行くとViewResultsもRSSもちゃんと見れるんだけどburnerのRSSは更新されてない
これってburnerがpipesに999かなんか出されちゃってるのかな? 初心者です。教えてください。
Feedlyクラウドを使用しています。
例えば下記のpodcastのフィードですが
http://www.daiwatv.jp/videopodcast/headline.xml
linkが同一でもtitleもしくはpubdateが更新されれば新着記事として認識されていたのですが、7/25より仕様が変更になったようで、linkが同一の場合、新着記事として認識されなくなりました。
このような場合、pipesでどのように対応したら良いでしょうか? link + title+ pubdateのフィールドを作って
それをguidに指定する 「Creat RSS」を使って、Guidのところにitem.pubdateを指定すればいいのでしょうか? >>360
実用上はそれで問題ないけど
pubdateが被る可能性を考えたらlinkやtitleも入れておいたほうがいいんじゃないの
ttp://pipes.yahoo.com/pipes/pipe.info?_id=f36a3748a6a249625cd594105f13a945 もっと簡易なYahooPipesとRSSReaderが一体となったサービスやってほしいわ
手軽にFeedにフィルター設定できたり2つのFeedを1つにしたり出来る
RSSReaderならそこそこ人気も出そうだと思う 俺も諦めてラズベリーパイで巡回させてる。電気代もやすくて楽だわ そんなにお手軽にフィルターかけられるようになって
いいことは無い <div class="pipesTitle"> 内の aタグが一括処理されるようになり、複数リンクを設定できなくなっちゃった… 先ほど見たら修正されたらしく元の仕様に戻ってました
良かった! >>378
全ページに毎回アクセスするような鬼畜な方法しか思いつかんな
http://album.twipple.jp/theme/%E7%8C%AB
これはRSS公開してるけどこれじゃダメなの? >>380
こういう場合の取得の仕方も学びたいってのもあるんですよね。。 >>381
こういう場合も何も、向こうが時間軸で並べてくれてない以上、
相手の迷惑顧みず毎回全ページfetchするか、
時間軸で並べてくれてるところ探すかの二択しかないと思うけど。
どういうプランを描いてたのか、逆にこっちが聞きたいわ >>382が本人かはわからんけどfeedに画像付けたいな
文字だけならほぼ意味がないし pipesのRSSがdlvrさんでHTTP 400いっぱい出るようになってしもた >>387
もうdlvrに頼ったシステムは卒業しようぜ。 単純にRSSを全文化しただけなんだけど
画像が多いと最後の方の画像が取得できない。
11枚画像があったら10枚目まで表示される感じ。
テキストはその後も取得できてるんだけど、
なんか画像取得制限でもあるんですかね フィードのURLのエンコードする方法が知りたいです。
教えてくれたら裸うpします。 年齢認証が入るサイトからのRSSはどうやって取るんですか? >>58
うらやまし〜。ボッキした!
新婚一ヶ月で他の男とハメするって
いけない奥さんですね。
知り合った経緯、容姿など教えて下さい。 ∩ .∩
.い_cノ / ̄>O
.c/・ ・っ (ニニニ)△△
.("●" ) .(・ω・`)[‖] ここも悪い子ばかりだな
O┳Oノ)=[ ̄てノ ̄ ̄] ルドルフ!次行こう!
◎┻し◎ ◎――◎=3
/ラジャー\ 検索してみたらこのスレに。>>68 ってやっぱり出来ないんですかね。
XPath Fetch Page で //div[@class="main"] して取ってきたのをRegexしたいんだけど 17500オーバーで駄目。
それで //div[@class="main"]/p でパラグラフ毎に分割して取ってきたら今度は Regex は出来るが
description 以下に 0, 1, 2, ... と分割して格納されてしまう。
(10以上に分割されてて且つ上限は不定なので LoopでString builderも出来ない)
どうにもなりませんか……? >>399
おー、これです! YQLで出来るんですね。
サンプルもわざわざありがとうございます。多謝。
YQLはさっぱりですが……;; store://〜 以下の文字列が何かのテーブル(?)に対応してるのかな。
ttp://www.datatables.org/ ← このサイトには無いですよね。
どこで探せばいいのか教えてくれませんか? >>401
YahooにログインしてるとYQLの自分のスペースに自作テーブルを保存できる。
そのテーブルの中身が二番目のURLで、store:// はそれを呼び出してる。 >>402
ありがとうございます。正月にゆっくり勉強します。 とりあえず >>399 さんのをcloneしてテーブルを自分のYQLに保存して実行までは出来た。
チュートリアルを見つつYQLコンソールを弄り中。先は長いな…… urlの日付からpubDateを作りたいのですが
http://www.hogehoge.co.jp/news/local/20140107/news20140107427.html
regexで/(\d{8})/ \1で日付を抽出
20140107を取り出したあとpubDateにどう変換すればいいのでしょうか教えてください。 >>405
01/07/2014 みたいな形式で抽出して Date Formatter に突っ込む。
Format: は %a, %d %b ... でチマチマ指定するか %K で大まかに指定するか。TimezoneはUTC, JSTお好きなように。
後はモジュールのヘルプを見れば分かるのでは。 >>406
ありがとうございます。
無事できました。 リンクの数字からpubDate作成
http://www.hogehoge.co.jp/news/local/20140107/news20140107427.html
Regex
in: item.pubDate
replace: .*/(\d{4})(\d{2})(\d{2})/.*
with: $3 $2 $1
Loop
For each: item.pubDate
Loop - Date Formatter
Format: %K
Timezone: JST
assign results to: item.pubDate >>408
日付のフォーマットは月2桁/日2桁/西暦4桁の方がいいようです。
Regex
in: item.pubDate
replace: .*/(\d{4})(\d{2})(\d{2})/.*
with: $2/$3/$1
Loop
For each: item.pubDate
Loop - Date Formatter
Format: %K
Timezone: JST
assign results to: item.pubDate
ここの%Kは出力のフォーマットなんですね
気づくのに時間かかりました。 xpath fetch pageで取得した複数要素をまとめる方法を教えてください。
例えば、//div/imgで複数の画像を取得してitem.descriptionにassign allした場合、item.descriptionの下に子要素として分割されてしまいますが、これを一つのdescriptionアイテムにしたいです。下の例でいうと、img1とimg2をひとくくりで取得したいです。
div1
div2a
img1
div2a
div2b
img2
div2b
div2c
text
div2c
div1
xpathで取得する時点で、最上位のdiv1を指定して一つの要素として取得するしかないでしょうか? >>411
item.description.hogeにassignすればいい話のように見えるけども。
string状態で1itemにしたいってことならYQLじゃないと無理っぽい。 >>412
YQLの select * from htmlstring を使ってstring状態で1itemにできました。
ありがとうございました。 タイトルだけあって本文の無い記事をブロックしたいんだけど
フィルターの設定どうすればいいかな >>414
おいらはitem.descriptionをMatches regexで.+のみAllowしてる。
もっと良い方法があったら知りたい。 質問させてください
RSSフィードのlink urlを抽出してそのページを入力ソースにしたいのですが、
Fetch FeedからSub-elementでitem.linkを取ってXPath Fetch Pageに繋げようとしても
パイプが繋がってくれません
URL Builderも同様にBaseにはitem.linkを選択したSub-elementのアウトプットからは
インプットできません
どうすれば良いでしょうか? >>416
Sub-elementで取り出したい理由がわかりませんが、もし元のRSSフィードのitem.linkをソースにしたいだけなら、Fetch Feed -> Loop(XPath Fetch Page) -> Pipe Outputでいけますよ。 >>417
ご回答ありがとうございます!
色々調べてはいるのですが、どうにもわからなくて質問させていただいてます、すみません
LoopにXPath Fetch Pageを入れるんですね!ちゃんとitem.linkが出てきました!
本当にありがとうございます、すごく助かりました >>417
たびたびの質問すみません
Fetch Feed -> Loop{ XPath Fetch Page(item.link) }.emit all results
までは繋げられたのですが、それで吐き出されている(と思われる)ページから
必要な情報のみを抽出して新しいRSSフィードを作りたいのです
http://jutememo.blogspot.jp/2012/06/yahoo-pipes-xpath-fetch-page-rss.html
などを参考にして作ろうとしているのですが、
Loop内に設置したXPath Fetch PageのExtract using XPathに
Chromeのデベロッパーツールの機能を使って該当ページ(item.link)の該当箇所から取得したXPathを
入れてもうまく動作してくれません
何かやり方が間違っているのでしょうか? >>419に補足ですが、具体的には
//*[@id="contents"]/table/tbody/tr[2]/td[1]/ul/li[1]/text()[1]
というXPathが出てきましたのでそちらをExtract using XPathに入力しました
http://jutememo.blogspot.jp/2012/07/yahoo-pipes-xpath-text-content.html
を見ると、text()が使えないということでしたので、このサイトの説明通り
Sub-elementのitem.contentを使おうとしたのですがそもそもSub-elementに
item.contentが選択肢として出てこないのです 何度もすみません…Sub-elementのitem.contentは手入力でいけました
しかしSub-elementからOutputに繋げてDebuggerを見てみても内容が一切ありません また訂正があるので連続書き込みすみません、ちょっと控えます
>>421の状態でDebuggerが動作しました
しかし内容は大元のソースとなるFetch Feedがそのまま出てきてしまっています
Fetch Feedのitem.linkのページの内容からRSSを構成したいのです
これではそのまま繋げたのと同じです
連続書き込みに関しては本当に申し訳ありません
どなたかアドバイスいただけたら嬉しいです
よろしくお願いいたします そこまで具体的な話なら、実際のURLがわからないと
アドバイスも難しいんじゃないか >>423
レスありがとうございます!
気になる物件情報の詳細ページから必要な箇所のみ抜き出そうとしているのです
RSS Feedは
http://suumo.jp/jj/chintai/ichiran/FR301FC001/?shkr1=03&cb=0.0&shkr3=03&shkr2=03&mt=9999999&sc=13113&ar=030&bs=040&shkr4=03&ct=9999999&cn=9999999&ta=13&mb=0&fw2=&et=9999999&rssFlg=1
で、このRSSの各item.linkが物件詳細ページとなっています
たとえば
https://suumo.jp/chintai/tokyo/sc_shibuya/bc_100009628160/
などです
そしてこの詳細ページの必要な情報の一つ目、↑のページでいえば「京王新線/幡ヶ谷」のXPathが
//*[@id="contents"]/table/tbody/tr[2]/td[1]/ul/li[1]/text()[1]
なのです >>425
おおお!こういうことだったんですね!
ありがとうございます!仕組みもわかりました!
tableからは文字情報を抜き出さなければいけないんですが、
ここからは自力でやってみます、本当にありがとうございます! Refleshがfailedになるんだが…
SaveもOops. System error: badly formed responseが出てできない item.descriptionで得られた文字列と、他から取ってきたitem.descriptionで得られた文字列を連結したい場合、
どのモジュールが使えるのでしょうか?
Unionだとうまくいかず、String Builderにはパイプがつながりません >>429
LoopにString Builderを入れてemit resultsしたのですが、
結局LoopからのパイプはString Builderに繋げられないので
同じことになってしまいます
すみませんがもう少し詳しく教えていただけないでしょうか? すまん。条件読み違えてたわ。
YQLならできそうだけど、、、
役に立てなくてごめん。 >>428
例えば、それぞれのitem.descriptionを、Renameモジュールを使ってRenameなりCopy Asなりでitem.description_aとかitem.description_bとかに割り当てて、後続Loop内のString Builderで連結するっていうのじゃダメですか? >>433
String BuilderにRenameが繋がらないのでダメですね… >>434
えーと、例えば、Fetch FeedとかのSources系モジュールで取得したitem.descriptionがあったとして、それをまず、RenameなりCopyなりで別の要素にした上で、その後にLoopの中のString Builderで連結するという意味です。
Fetch Feed -> Rename -> Loop(String Builder)
Renameを繋げるのはLoopですね。Loopの中のString Builderで、先にitem_description_a等に変換しておいた要素を並べて、改めてitem.descriptionにassignするということです。
それとも、やりたいことは複数のソースから取得したitem.descriptionを連結したいってことなんですかね? レスありがとうございます
> それとも、やりたいことは複数のソースから取得したitem.descriptionを連結したいってことなんですかね?
まさにこれがやりたいことです
何か方法はあるでしょうか? >>436
Pipeを入れ子にするやり方があります。考え方としては下記が参考になります。
http://stackoverflow.com/questions/338912/yahoo-pipes-any-way-to-combine-items
ただし、上記で示されているArendさんのPipeは使われているモジュールとかが古くて動作しないので、改修版のサンプルを作ってみました。出力としては不完全ですが、複数のソースを一つの出力にまとめる部分までは再現できていると思います。
http://pipes.yahoo.com/pipes/pipe.edit?_id=d0416bba32ff379d32a6fb9d2a146dc6
ただ、無理にPipesだけでやろうとするよりは、>>432さんもおっしゃっているように、YQLで取得することを考えた方がはやい場合も多いです。 >>437
大変参考になりました。ありがとうございます
こんなに複雑にせざるを得ないとは…w
もしうまくいかなかったらYQLの勉強をしてみます >>438
stackoverflowのサンプルに最低限の改造を施しただけなので、ちょっとゴチャゴチャしています。
複数ソースを結合する部分だけでいえば、
(1)各ソースの出力用Pipeを個別に作成する
(2)数列から空のフィードを作って(1)の個別出力Pipesを割り当てる
という流れになります。
なお、>>437のPipeはそのうち消してしまうので、もし必要であればCloneしてください。 https://amaten.jp/exhibitions/indexのrssを生成しようと思ってるんだけどpipesで取得エラーが出るから
Yahoo!PipesでFetch FeedできないURLをPipesで取得する方法
http://vwxyz.hateblo.jp/entry/20080319/1205908631
上の方法で出来るかなと思ったけどopen.dapper.netが不安定で駄目みたいだし困ってる >>441
確実なことは言えないけど
100程度作って一年以上放置してるのもあるけど消えたことは無いんじゃないかなぁ
Pipeを間違えて覚えてて辿りつけないとかじゃないよな? >>442
何か分からんが復活してた
こんな事初めてだ Pipesで吐いた新着RSS(Loop + Xpath Fetch Page利用)を、IFTTTでツイートとデバッグ用にメールさせてるんだが
更新されてもツイートもメールもされなくなった
ちなみにRSSリーダーには新着が届いてる
毎回エラーになるものが一つあるけど、多分だけどそれは関係無いっぽい↓
This Pipe ran successfully but encountered some problems:
warning Error fetching http://xxx : Results may be truncated because the run exceeded the allowed max response timeout of 30000ms.
こういう問題なのかな?↓
http://jarp.does.notwork.org/diary/201312a.html#20131210
でもPipesのURL末尾に単純に&_render=rss?rss%F-%Hみたいな感じにしてもIFTTがfeed urlと認識してくれなくてよくわからない
曖昧な質問ですが、何かヒントいただけたら助かります 申し訳ないです、
http://jarp.does.notwork.org/diary/201312a.html#20131210
をちゃんと読んでみたら?rss%F-%HはPipes内部でitem.linkにつけるとかいう話だったのね
しかしそれでは私のPipesには使えない(item.linkはパラメータを足すとエラーになるサイト)
困った Xpath fetch pageって何個も繋げたらその都度引っ張りに行って遅くなるの? >>448
試したみたけどどうも遅くなるっぽい
YQLを勉強するしかなさそうだけど、YQLのスレが無いのでもし良かったら誰か教えて
あるページから
1. xpathで指定した箇所の文字列
2. 指定したファイル名と一致するurl
を同時に取り出したいときはどういう構文にすれば良いの?
1.に関しては
select * from html
where url="http://....." and xpath="//*[@id='.....']"
という感じで取れることはコンソールでチェックしてわかったんだけど、
2.も一緒に取り出す方法がわからない hashの方がサーバ側に情報がいかないし、アクセス解析でなんだこれって思われないからいいよ
というか記事を区別してるのはGUIDだから、それをURL以外のユニークもの(例えばタイトルとか)にするってのもいいと思うけど GUID基礎すぎるせいなのか、どこの解説も触れないんだよな最近知ったわ >>451
最後にRSS Feed化するのにLoopの中にRSS Item Builderを入れているのですが、
そこのGUIDに任意の値(それこそ日時など)を入れておけばハッシュをつける必要が無いということでしょうか? YQLモジュールについてわからないところがあるので教えてください
select * from html where url="○○" xpath="//*[@class='hoge0']" or url="○○" xpath="//*[@class='hoge1']"
という構文を作りコンソールで確認したところ、
<results>
<p class="hoge0">テキスト</p>
<p class="hoge1"><img src="image.jpg" /></p>
</results>
とちゃんと両方取れていました
ですがpipesのデバッガ上で出力結果を見てみると、
hoge0の中身は空になっておりましたが、hoge1の方はimg -> srcという階層構造で取得されていました
これはもしかして<p class="hoge0">の中にhtmlタグが無いと内容を取れないというYQLモジュールの仕様なのでしょうか?
解決策をどなたかご教示ください。よろしくお願いします >>454ですが、失礼しました。xpathの仕様だったのですね
http://jutememo.blogspot.jp/2012/07/yahoo-pipes-xpath-text-content.html
しかしこのSub-elementを使う方法では、一つのYQLモジュールで2種類の情報を取得するという私のやりたいことができません
http://i.imgur.com/eGPzDZo.png
どうすればよいでしょうか? RSSを元にitem.linkから情報引っ張ってきてRSS作ってるんだけど、重複しまくって配信される
uniqueは最後にかましてるんだけど・・・ >>457
item.linkのURLがwww有りとwww無しで2つ配信されてるところとかあるよね。
ttp://web-tan.forum.impressrd.jp/e/2012/02/13/12027
配信側の問題だとすると、item.titleとかでuniqueにするとかぐらいしか方法なさそうな気がする。 >>458
ありがとう。原因究明できたら報告します XPath Fetch Pageなどではrobots.txtではじかれるようなサイトでも、YQLのdata.headersを使うことでheaderとcontentを取得することができるようです。
select content from data.headers where url=
このひとかたまりで取得できたページ全体のcontentから、タグやxpathなどで特定の要素を抽出して、個別のitemに分解するにはどうすればよいでしょうか? ・google readerが終った
・yahooがいろいろなサービス中止していて将来的にはpipesも危なそう
・去年pipesが不具合を起こしたまま長時間放置された
の三連発で一気に過疎った kimonoがいい感じ。
ttps://www.kimonolabs.com やはりハードルが高い
画像まとめサイトやDanbooru系サイトのRSS利用して
画像だけ流れてくるフィードのお気に入り画像だけにスター付けて
スター付けた画像をローカルやネットストレージに保存しておきたい!
とかはあるんだけど、それは可能ってだけで実現は出来てない 最近はHuginnに移行しようと頑張ってる
自由度は高いけど、まだ慣れないし理解できてない部分も多い (´・ω・`) Yahoo! Will be right back... Thank you for your patience. Our engineers are working quickly to resolve the issue. >>467
huginn日本語だと解説してるサイト全然無いね。
使ってる動画とか見るとイイ感じなんだけど敷居高そう。 >>474
Jsonで取得とかになると難しくて素人の手には負えないです>< >>476
>>474の手順通りにやればできるよ。がんばれ!
「検索を行いJSONを取得する」のURLをFetch Dataモジュールにいれて、RenameモジュールなりRss Item BuilderモジュールなりでRSSフォーマットにしてやるだけだよ。 今までGoogleアカウントでログインしてたんだけど
Sorry, there was an error.
Please sign in again with the same account or a different one.
と出て急に出来なくなった
対処法無いですかね >>479
Flickr、FacebookおよびGoogleアカウントでのログインを6月30日で終了 - ITmedia ニュース
http://www.itmedia.co.jp/news/articles/1406/09/news042.html
警告出てたと思うが RSSリーダーとかに登録してるのを辿って
新垢でCloneすれば多少はサルベージ出来るんじゃね アカウント移行みたいなの出来るっぽいけどこんなん出てアカウント作れない
Sorry, we encountered an unexpected error. Please try again. あっちが予期していないのならこっちだって予期できないな 楽天ランキングを常に1位から順に表示させたいんだけど
ランキングが更新される度に順がばらばらになる
rssの仕様上仕方無いんだろうけどなんか良い方法ないだろうか? その楽天ランキングとやらを俺たちが検索して見つけないといけないの? どういう仕様のリーダーに読ませてるかによるけど、
item.guidを更新のたびに変わるように(現在日時+順位とか)しておけば良いような気がする。 一度受信した商品は次回更新時にランクが変わっても受信対象にならない
でも次回更新時のランクで受信したいってことだよね?
次回更新時に初回受信情報を全クリアすれば可能と思うけどやり方はわからんw 492じゃないけど作ってみた
item.y:id.value書き換えないとfeedのguid変わらないのは俺のやり方が悪いからなのか?
こうした方がいいとかあったら教えて欲しい
http://pipes.yahoo.com/pipes/pipe.info?_id=e7b65741a14c71ab742fe8e65bbd4e6d >>495
item.yはYahoo!Pipes自体が使用する要素で、item.y:id.valueを指定すると、Pipesが実行時に自動的にその値をフィードのguidにコピーしてくれるんだったはず。
だからitem.y:id.valueだけ指定すればOKかと。 item.yにguidとかpubDateとかが上書きされて悩んだことあるわ say moveの新着動画のpipesが正常に動作していないのですが。。
仕様が変わったとかですか?
http://pipes.yahoo.com/xulapp/saymove で動いていたのですが。。もし違うものがあれば教えて下さい >>498
xpathを書き換えれば動くよ。
" and xpath="/html/body/div[@id='main_contents']/table/tr/td[@class='mov_info_right_gen']/p[1]"
を↓に変更。
" and xpath="/html/body/div[@id='main_contents']/div[@class='wrap_comesearch']/table/tr/td[@class='mov_info_right_gen']/p[1]"
div[@id='main_contents']の下に直接tableがあるのではなくて、div[@class='wrap_comesearch']の下にあるので、読み込めなくなっているのでしょう。
シンプルにするなら、最後のp[1]該当要素だけを直接指定してあげてもOKです。
" and xpath="//p[@class='movtitle']" >>499
。。無知すぎてさっぱりです。。
もしよろしければ修正版を作っていただけるとありがたいのですが。。 >>500
簡単だから、これを機に作ってみたら?
>>498 のパイプをコピーして、 >>499 の部分を修正するだけです。
米国YahooのIDがなくても、GoogleかFacebookのアカウントがあれば作れるから。
簡単な手順を書いてみたけど、エラーになって書き込めない。 書き込めるかな?全角英字は半角に読み替えてね。
1. >>498 のパイプを開いて「View Source」を押せばログイン画面になるので、「Sign in with Facebook or Google」からログイン
(GoogleかFacebookにログインして、Accept)
2. もしログインした後に自動でエディタが開かずpipesのトップに戻ってしまったら、 再度 >>498 のパイプを開いて「View Source」を押す
今度はエディタが開くので、上から5番目の、左上に「Loop」と書かれている箱の、その内側に「String Builder」って書かれているところを見つける
その中の3番目の文字列を書き換える (>> 499)
3. 画面の右上にある「Save a copy」を押せば、自分のパイプとして使えるから、後は今まで通りに使えばOK. >>502
文字列を見つけるところまで入ったのですが、499の内容にコピペして内容が変わってることを確認してから
save as copyして、再度ソースを見ると変更前の文字列になっています
直接打ち込まないとダメなのでしょうか? >>503
もしかして修正した後に、>>498 (ttp://pipes.yahoo.com/xulapp/saymove )を開いているんじゃないでしょうか?
「Save a copy」で >>498 のパイプを複製したら、新しい「自分の」パイプができているので、My Pipes ( ttp://pipes.yahoo.com/pipes/person.info ) の一覧に出てくるようになると思います。
My Pipes の一覧から選んで、ソースを見たら変更が反映されていると思います。
Save a copy: 既存のパイプを新しいパイプとして複製 (名前を付けて保存)
Save: 上書き (自分のパイプしか保存できない。人のパイプを変更したい時は Save a copy して自分のところにコピーしてから修正) 500、503です
皆様のアドバイスで無事動作するようになりました。ありがとうございました
ただ、saymove→新着動画→すべてのカテゴリだけ微妙にアドレスが違うのでうまく動作しませんでした
(他のカテゴリすべて動作するのでいらないといえばいらないのですが。。) Yahoo Pipesと直接関係ないんですが
いつものようにYahoo Pipesを使おうと思って
https://pipes.yahoo.com/pipes/からサインインしようとしたら
急に起こったことでびっくりしてはっきりと覚えていないんですが
たぶんIDとパスワードを入力する画面をすっとばして
(ここはあやふやでいつもはFirefoxのアドオンのSecure Loginという
ボタンを押しただけでサインインできるのを使ってるので
ひょっとしたら無意識でボタンを押してサインインしてるかもしれません)
全く知らない別のアカウントにサインインした状態で
yahoo.comのメール画面に飛ばされたんですが
同じような経験した人いますかね
今日だけで2回同じ現象が起こってかなり怖いです publishしてないパイプって巡回してくれないけど
こいつのRSSフィードを、例えば外部リーダーから定期的に読みに行かせたら
そのたんびに更新してくれる?それとも前回runした時のまま? >>509
publishしてるかどうかは、検索に引っかかるかどうかだけじゃないの?
自分用に作ったパイプはpublishしてないけど、RSSフィードは更新されてるよ。 あれじゃあ何かカン違いの解説見たかな
自分でも確認した、ありがとう 全文配信フィードのcontent:encodeを削除する方法ない?
17500字以上だかで長すぎるとregexがエラー吐くんだよね
別に加工とかじゃなくて丸ごと切り捨てたいんだけど >>512
regexでなくrenameでcontent:encodeに何かを上書きしてやればいい めっちゃパフォーマンス良くなってるわありがとう
わざわざCreate RSSなんてコマンド用意するなら、
要らんモン消す機能でもつけといてくれたらいいのにね >>517
Create RSSでも消せない?
残したい要素だけ割り当てたら他の要素消えなかったっけ?もちろんRenameでも良いけど。 Yahoo!ニュース取得できなくなってないか?
Response: Bad Request (400)なんて初めて出た。 気軽に聞かせて
あのHTMLにXPathかけるのをオフラインでもやりたいんだが
(ダウソ済のhtmlファイルに何度でも試行かけてオンラインに反映)
何使ったらできる?コマンドラインOK ちょっと何か書くくらいOK
とりあえずMSXMLでは、参照と評価できる部分があるとそこでとまっちゃうみたいだ rubyとか、pythonとかweb系に強いスクリプト言語ならどれでもxpath使えるライブラリがあるよ。rubyならnokogiriってやつ。
もちろんperlでもok。 javascriptの方が良いか。何かインストールしなくても最初から使えるから。 まずおまいらありがとう
>>523
へぇそんな便利なものが…と思ったら、SafariWinにもありました
> $x('/html/body/script');
これ通った!まずそっからやってみます
>>521-522
他のパーサならひっかからずにすっといくってことかな
XMLはちゃんと勉強できてないから、、 これ気に留めておきます Pipes等を使って、数値参照を普通の文字に戻すことってできますか?
Facebookのフィードは↓こういう感じでタイトルが数値参照化されているんですが、そのままだと読めない環境があるのでどうにかしたいです。
http://www.facebook.com/feeds/page.php?id=250294998403591&format=atom10 http://www.durarara.com/news/
このページの画像のURLが超長いせいで情報取得できないみたいなんだが
回避手段無いかな? 529だが今見たら直ってたわ
フリーズしかけた人は変なもん踏ませてすまんかった どうあがいてもループモジュールに他のモジュール入れられなくて詰んでる… >>532
左の一覧?からドラッグして直接ループに重ねるんだ バグで重なってくれないことが時々ある
保存して閉じて開き直すと重なる >>534
むしろ「重ねたLoopに入らず、別のLoopに入ってしまう(既存を置き換えてしまう)」不具合はどうにかならんのかと思う。 ドロップする前にLoop周辺でマウス動かしてたら
ちょっとはずれたとこでLoopにフォーカスあたらない?
そこでドロップしたらちゃんと入る あるある
だがそれでも別のとこに入ることがあって何このトラップってなる publishしようとすると、下記の文と送信ボタンのみが出てきてpublishできない…なんですかこれ…
Pipes requires CAPTCHA to publish this Pipe.
Enter the code below to publicly list it on pipes.yahoo.com. >>540
そうです。言葉足らずで申し訳ない
今のところは個人で使うだけだから出来なくても支障はないんですけど気になって Pipesだけで、fetch feedで得られた任意のタイミングで結果を反映させることはできますか?
例えば、元のフィードに記述されたpubDateの時間の10時間後に自動的にPipesのrssへ反映させるといったような… ×fetch feedで得られた任意のタイミングで結果を反映
○fetch feedで得られた結果を任意のタイミングで反映 >>543
Pipesのクローリングのタイミングを制御することはできないと思うけど、PubDateを変更するんじゃダメなの? >>543
>>495のやつみたいにtoday追加して
Filterで特定の時間だけ出力させる事なら出来そう
流速の速いfeedだと抜けが出ちゃうだろうけど >>545-546
あー!
書き換えたpubDateとtodayが一致したときに反映を許可すればいい感じになりそうですね!
助言ありがとうございます! モジュール内の一覧(RegexとかStringBuilderの)の上下入れ替えられたら便利なのになあ YQLで日本amazonから新着書籍を検索しようとしているのですが、文字化けしてしまいます。どうしたらよいでしょうか。
use "store://B10k4SmlCX77LTK6yvA5Ky" as amazon.awsjp;select *
from amazon.awsjp where Keywords="京都" and AWSAccessKeyId="*********"
and secret="********" and SearchIndex="Books" and ResponseGroup="Medium"
and AssociateTag="********" and Sort="daterank"
文字化け以外は動いているんですが。 >>551
試してないけど and charset='Shift_JIS' で charset 指定できるんじゃない? amazonから新着書籍を検索するパイプを公開してみました。
AWSAccessKeyIdとsecret鍵を入力すれば使えるのですが、文字化けしてしまっています。
http://pipes.yahoo.com/pipes/pipe.info?_id=0fea42d60b57385fe777b4bf71dcdf81
設定のxmlファイルは
http://khamada2002.web.fc2.com/amazon.aws.jp.xml
に置きました。
文字化けがなくなりますよう、ぜひお力添えください。 Amazon Webサービスのスレがあればそこで聞いたほうがいいんじゃない?
ここだとAccessKey取得してる人いるかもわかんないし 文字化けが解消しました。
何週間も前から文字化けしていたのに、突然解消したとはこれはいかに。
いずれにせよ良かったです。 たいへんありがとうございました。 twitterで時々「yahoo pipesってまだ生きてたのか」
みたいなのが流れてきて悲しい
まだβみたいなもので生まれてもいないというのに・・・ kimono(ttps://www.kimonolabs.com/)で取得した、複数のjsonのデータをpipesで組み合わせられるでしょうか
・jsonのデータA
"results":{"A":[{
"Aの項目1":"文字列","Aの項目2":"文字列","Aの項目3":"文字列","Aの項目4":"文字列"
}},
以下続く
・jsonのデータB
"results":{"B":[{
"Bの項目1": "文字列","Bの項目2": "文字列"
}},
以下続く
・整形したい形
"results":{"A":[{
"Aの項目1": "文字列","Aの項目2": "文字列","Aの項目3": "文字列","Aの項目4": "文字列",
"Bの項目1": "文字列","Bの項目2": "文字列"
}},
以下続く >>559
まだ生まれてないワロタ
だが死なれては、難しいことができない身としては本当に困る
収益厳しいなら月額で数百円程度のプラン用意してくれるなら全然出すよ… >>465
> kimonoがいい感じ。
> ttps://www.kimonolabs.com
これ使うとツイッターをRSSリーダーでまとめ読みできるだろうか? >>562
参考にするとよろし
ttp://blog.kimonolabs.com/2015/02/10/infinite-scrolling-enhanced-pagination/#more-1043 今朝からgoogle翻訳から503が返ってくる・・・
もうダメなのか 自分は、google翻訳をfetchしするモジュール(たぶん)を転用して
多国語のtitleやdescriptionを英語に直してたんだけど、もうダメですね
yahoo pipesからのフェッチング自体が蹴られてるみたい textinputなどを使用している場合feedのURLに
pipes.yahoo.com/pipes/pipe.run?_id=xxx&_render=rss&textinput1=○○○
のように末尾にtextinputなどに入力した文字列が付与される
この時feedのURLが6689文字?を超える場合「The Pipes engine request failed (400)」
となりGetasRSSなどが出来ない
っていう気をつける必要のほぼない仕様を発見した pipesで取ってこれないサイトはkimonoでって感じで連携して使ってるんだけどkimonoの仕様が変わったらしく、
保存できなくなったり編集中に取得したデータと実際に書き出されたデータが違ったりして困った
もう自分でプログラミング勉強するしかないのか Pipesで1つのRSSからitem.descriptionに複数のURLが抽出されました。
複数のURLを各々item.linkにしてitem.titleを各々のURLから引っ張ってきて
別のRSSを作ることはできますか? >>570
加工元rssのitem.descriptionに含まれている複数のurlを、
それぞれ独立したitem内にlinkとして振り分けて、かつリンク先のタイトルをitem.titleにしたいって事?
合ってるなら、思い付くのは
・各URLをString Tokenizerで抽出
・loopにXpath fetch page入れてリンク先の<title></title>部分をitem.titleに書き出す pipesから直接取ってこれないページ対策に、string bilderで下記みたいにYQL内のurl部分をitem.linkにして、
出来上がったurl(json)でfetch dataする流れを組み込んだpipesのrssを
他のpipesとマッシュアップしたらYQL入りの方がタイムアウトでーすwwwなんて言われるようになっただす…
http://query.yahooapis.com/v1/〜
item.link
%22%20and%20xpath〜
何か解決策はありますか? Pipes End-of-life Announcement
As of August 30th 2015, users will no longer be able to create new Pipes. The
Pipes team will keep the infrastructure running until end of September 30th
2015 in a read-only mode.
http://pipes.yqlblog.net/post/120705592639/pipes-end-of-life-announcement
どこに行けばいいんだ・・・ twitter検索からクソBOTを300以上取り除いた俺の苦労が・・・ >>576
ScraperWikiは有料化して、
https://morph.io/
に追い出されたわけで 自分のpipes数確認したら70個くらいあった
これ全部他で作りなおすのかよ・・
有料でいいから続けてくれ 他所のサービス使ってる限りはこうなるのは仕方ないよねー
とgoogle readerの時も思った
簡単に作れる(移行も簡単)なのだけサービスで作って、
複雑なのは自前で動かしたほうがいいね ____
/ ___ \
( ̄二 |´・ω・`| \
\ヽ  ̄ ̄ ̄ )
∠/ /| |
( ///
| ,、______,ノ ̄ ̄)
| /  ̄/ /
_|_|____//_
. |  ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ | ̄ ̄ ̄ ̄ ̄|
────── | ここですCAR | |
_____ | ,-─-、 . ,-─-、 | |
. |_/ ,-、ヽ____/ ,-、 ヽ_|_____|
', -' ノ ヽ:::::::::', -' ノ ヽ::::::::::丿 終了なのか、、全文rss作るのに重宝してたんだが
自分の用途だとGoogle App Scriptサービスでいけそうなので、週末見て見る予定 ここpipes死んだら、スクレイピング総合スレにしたいな 無知な俺を助けてくれ
google+なんだけど
https://www.googleapis.com/plus/v1/people/*********************/activities/public?key=APIキー&maxResults=10
こういうので
{
"kind": "plus#activity",
"etag": "",
"title": "",
"published": "",
"updated": "",
"id": "",
"url": "",
"actor": {
"id": "",
"displayName": "",
"url": "",
"image": {
"url": ""
}
こういうのを取得して形整えてRSSにしてたんだけど
これはどういう事をしていたんだろうか
色んなとこの見よう見まねでやってたから専門的な知識皆無だしどういう移行をすればいいのか分からないんだ プログラミングの知識がないのでpipes終了対策として勉強しようと思うのですが、
スクレイピングした内容を整形してrss化するなら、javascriptを勉強すれば使えると聞く
google app scriptが現状一番手軽でしょうか? 手軽さだけならkimonoじゃない
あまり複雑なことはできないっぽいけど >>589
kimonoも使ってはいるんですが、kimonoの出力結果をjavascriptで整形できても、
yahoo pipesの様にlink先の内容をスクレイピングして一緒やな書き出すとなると
他のツールも使わないと駄目だよなあと悩んでまして…。 朝からGoogle Apps Scriptいじってみて、ようやく全文配信をFeedlyに登録ができた。
Yahoo Pipesみたいに相対パスを絶対パスに書き換えるとかはやってくれないが、Javascriptなのでがんばればいろいろやれそうな感じ 連投すいません
自分で>>590書いていてあれだけど、もしかしてkimonoのMODIFY RESULTS内でYQL組み込めば大丈夫…? ミドルウェアやらウェブサービスの使い捨ての知識を学ぶより、最初っからサーバ上で汎
用性の高いプログラミング言語使った方が結局は得なんだよな、と毎回思ってるのにこの
ザマだよ 俺はPHPなら少しはいけるんで、Goutte,SimplePie,FeedWriterあたりを組み合わせて
昨日からいじってて、Pipesでできることはほぼできるようになった。
書き慣れていけば断然早いし自由度も高くなるしいいことずくめ。 >>595
プログラミングとかさっぱりですがなんだか面白そうなツールですね
ちょっといじってみたくなりました。すぐ断念しちゃいそうだが・・ プログラミングのプの字も分からないけど
google apps scriptでのスクレイピングについて調べてたら、かえって面倒そうな印象を受ける…
pipesと同じことしたいって決まってるなら、php勉強してスクレイピング用のライブラリ使った方が良いのかな
実際のところどうなんですかぬ 自分は、サーバーの運用方法とか調べるほうが面倒そうだったので、Google Apps Scriptにした。
GASは結構情報は多いし、プログラムに慣れてたらサーバー立てるより簡単なだと思うが・・・
あと、Googleドライブなどをキャッシュがわりに使えたり、結構高度なこともできそう。
もちろん、PHPなどの汎用プログラムのほうが高度なことができて、サービスの停止は心配しなくていいのだろうけど。 移行先をどうするか、GASが良さそうに感じるけど、
Readerでひどい目にあっているので、サービス継続性が不安……。
いっそ、安いレンタルサーバを借りて構築してしまう方が良いのかも。 互換性のある適当な代替サービスがあるもんだと思ってたら全く無くて詰んだわー pipes難民のためのプログラミング講座とかやっちくり… 自鯖で動くように色々書いてるけど、キャッシュ管理が大事だな
PipesはLoop->fetchぶんまわしてもうまいことやってくれるし、
たとえ怒られてもYahooが被ってくれるけど、自鯖だと自分に直接くる 「Yahoo! Pipes」、9月末で終了 米Yahoo! Mapsも終了
ITmedia ニュース 6月5日(金)12時42分配信
http://headlines.yahoo.co.jp/hl?a=20150605-00000044-zdn_n-sci 確かにキャッシュは大事だね
Google Appsで一日のUrlFetchが多すぎますって怒られたw
テストしてたら合計1万回ぐらいFetchしてしまったのが悪いんだが・・
今はドライブに保存してなるべくFetchしないようなコードに変えた ツイッターをRSSリーダーでまとめて読んでいるんだが。
困ったなあ。
代替サービスあるだろうか? >>605
kimonoは?>>564のとか参考になるんじゃないだろうか kimonoもちょいちょいクロール止まるんだよね
クロール頻度を毎時、毎日に設定してても最後にクロールしたの数日前とか
登録してるURLの量たいして無いのに 無知がgoogle appsがんばってツイートしようとしたらモバイル認証でつんだ
サブ垢で使えないじゃん >>608
認証するときだけ登録して、終わったら番号消せばいけるんじゃ >>609
試してみるわ
でもapiのやつで番号登録してないから使えませんみたいなこと言われるからどうやろ 自分はTwitterBotをPythonで作りなおした。サーバーはRaspberryPIで
PHPよりPythonの方が楽だと思う。
import feedparser
url="http://rss.dailynews.yahoo.co.jp/fc/rss.xml"
fdp = feedparser.parse(url)
for entry in fdp.entries:
print("{} {}".format(entry.title, entry.link))
これだけでRSS取得できる。 >>605
自分はこれで
Queryfeed | Read Twitter, Google Plus and Facebook on RSS
https://queryfeed.net/ >>612
Show images as attachments にはチェック入れないほうがいいんでしょうか? filterで対象をpubDateにした時に、条件がDateBuilderみたいに文字列(todayとか)でも効く事に今更気付いた
もう終わり間近で気付いても虚しい… The 13 Best Yahoo Pipes Alternatives You Should Look at Today
http://www.makeuseof.com/tag/12-best-yahoo-pipes-alternatives-look/
代替まとめ google apps scriptでやってるんだが
fetchして出てきた日付がGMTで yyyy-MM-ddTHH:mm:ss.SSSZ (TとZはそのままTとZが書かれてる)で
これをJSTにフォーマット出来ないだろうか
formatDateでは無理みたいで >>618
自分が作ったやつだけど、どうだろうか?
function getDate(dateString) {
dateString = dateString.replace(/(\d\d\d\d)-(\d\d)-(\d\d)/, '$1/$2/$3').replace(/T/, ' ').replace(/Z/, ' +00:00').replace(/([\+\-])/, ' $1');
return new Date(dateString);
} ミリ秒まであるのか
ちょっと修正
dateString = dateString.replace(/(\d\d\d\d)-(\d\d)-(\d\d)/, '$1/$2/$3').replace(/T/, ' ').replace(/Z/, ' +00:00').replace(/([\+\-])/, ' $1').replace(/\.(\d\d\d)/, ''); pipesから乗り換えなくちゃいけなくなって始めたばっかだから無知すぎでどう使えばいいかよく分かんないけど
そのままコピペして実行したら
TypeError: undefined のメソッド「replace」を呼び出せません。
って出たよ いや、関数をそのまま呼び出すんじゃなくて、例の文字列を引数に渡してくれ
そしたらDateオブジェクトが返るから >>617
> >>615
俺としてはツイッターをRSSリーダーでまとめ読みできれば
それでOKなのだが。
たくさんありすぎてどれがベストなのかわからん。 >>622
ごめん
理解できなかった
本当に始めたばかりで >>622
あ!やっぱできた!
これだありがとう!!! 代替使ってみようと調べると
〇〇を使えることが前提だ。〇〇を調べると××を使えることが前提だ
ってなるの辛い apps scriptでUrlFetchApp.fetchで読み込んだhtmlの中に決まった文字列が何回出てくるかを数えるにはどうすればいいでしょうか? “The 13 Best Yahoo Pipes Alternatives You Should Look at Today”
ttp://www.makeuseof.com/tag/12-best-yahoo-pipes-alternatives-look/ 必要なものは全部PHPに移植完了した
しばらくは別でテストしながら様子見てちょこちょこコード修正して、
問題なければpipes終了までに置き換えていく
代替サービス使うのもいいけど、何でもいいから言語覚えて自分で書くのも勉強になるしいいよ スクリプトを書くのはいいんだけど
巡回用に鯖を立てるのがめんどそう これだけで鯖たてるのは面倒かもしれないけど、
俺は2chブラウザのrep2と、RSSリーダーのTiny Tiny RSSも
動かしてるから敷居は低かったな Yahoo!ウォレットのカスタマーサービスからぶん投げられた、催促メールが下記の通りつじつまが合わなくてヤバイ件。
内部犯罪のニオイがしてるが、消費者としてこんな気味が悪いことはないのだが。
*Yahoo!ウォレットのサポートから”未払い料金の催促、通知メール”*
==============================================================
1.ご登録お支払い方法にて請求が行えなかった件について
今月請求分のご利用料金のお支払いが完了いたしませんでした。
Yahoo!ウォレットのお支払い方法が無効、または登録情報に不備があるなどの理由でお支払いが完了しなかったご利用料金は、
別途コンビニエンスストア払込票でのお支払いをお願いしております。
==============================================================
ちなみにYahoo!プレミアム。
俺はデビットカードの口座でウォレットを引き落としてて、確認したところ口座残高を切らしたタイミングはなし。
つまり、口座から引き落とされませんでしたというサポートの言い分は”事実”ではなく、明らかに”作り話”ということ。
原因がデビットカード決済のシステムトラブルならば、消費者の管理外の問題なので。Yahoo!側はどこの業者と連絡を取ればいいかわかるはず。
では、デビットカードでのシステムトラブル”決済ミス”の問題が解決されておらず、Yahoo!サポートでの規定の手続き(コンビニ払込と、追加の手数料つき)へ”ずーっとぶん投げていた”のならそれは”消費者への不利益案件”であって、深刻な信用問題だ。
この疑いが、まずはひとつ。 そういえば、以前もYahoo!のサポートは”いかにもインチキな誓約書”まがいを提示したことがあって、これに同意しろと言ってきていたことがあった。
やられた側はこういう気味の悪いことを忘れないものだが、ふたつ目の可能性として考えられるのは、
もしかしたらYahoo!側かデータを取り扱う関係者が”引き落としなし”というデータのねつ造をして、わざわざ”決済ミスを人為的に装ってきた”可能性も疑ってみる必要があるかも。
いずれにしても消費者にとっては不可解なもので、気味が悪いことこのうえない。
不利益はすでに小さくないよ。
しかし思うのは、こんな不快極まりないことを消費者がずっと抱え込むとでも思っているとしたら、コンプライアンスとしてヤバい企業ということ。
こんなの消費者は抱え込ないので、ネットで簡単にバラされてしまうことくらいは想定してくてはいけないはず。
ラーメン屋のようなコンプライアンス軽視できる業界でもないし、社員たちが対応できないだろうなどとは誰も擁護しないと思うのだが。
上にあげたように、Yahoo!がコンプライアンスがダメな企業であるのは間違いないし、世論にさらされるべき案件だ。 inoreaderがYahooPipesのクロール頻度引き下げたっぽい?
更新があるのに全然拾ってきてくんない pipes終了と聞いてとんできたんだがマジなのか
ふざけんな 誰かPipesをGAS用に変換してくれるの作ってくれ・・・ pipesって言っても使い方は人それぞれだよね。
自分はRSSを作ってるんだけど、代替サービス使うよりPHPとかで
自分でスクリプト組んだほうがいいのかなって思ってる。 脱Pipesしてよかったことのひとつは、フィード自体のURLを自由にできるから
リーダーがそれをもとにFaviconを取得する場合、Yahooのアイコンじゃなくなったこと Faviconの件は自分もよかったと思った
GASでRSS作ってるけど、Feedlyがリンク先のFaviconを使ってくれる
あと、pipesは更新間隔がおまかせで遅くなることもあったが、そこらへんも自由にできるのもいいと思った。 RSSリーダーとかTwitterBotとかならGASで公開している人がいるのですぐ作れるよ。
「google apps script ????」で1週間ぐらいの日本語のみにしておくとひっかかる。 FacebookのRSSが取れないんだけどみなさんどうですか?
IDも取れなくなってるし >>644
https://developers.facebook.com/docs/apps/changelog#v2_3_90_day_deprecations
Page RSS Feed endpoint - at https://www.facebook.com/feeds/page.php is
now deprecated and will stop returning data from June 23, 2015.
Developers should call the Graph API's /v2.3/{page_id}/feed endpoint instead.
This returns JSON rather than RSS/XML. >>644
FacebookのRSSは6/23で廃止になったようです。
ttp://webgoto.net/351/ >>643
技術弱者なので、それだけの説明では理解できない。
もうちょっと詳しい説明おねがい。 pipesがわかりやすすぎるんだよなあ
簡単なのねーかな >>649
何がしたいのかによるから
RSSがないのをRSS化するならkimono
ttp://imabari.hateblo.jp/entry/2015/06/23/145853
kimonoでフィルタ
ttp://imabari.hateblo.jp/entry/2015/05/07/231225
RSSを結合・フィルタならGoogle Apps Script
ttp://imabari.hateblo.jp/entry/2015/06/18/114843
TwitterでBOTするならGoogle Apps Script
ttp://imabari.hateblo.jp/entry/2015/06/12/143021 pipesって分かりやすいかなあ
フィルタリングやらマージだけならともかく >>653
XMLやJSONやRSSを加工するならGoogle Apps Scriptはベストだと思う。
あとはBOTぐらい反対にそれ以外の用途に使うのは難しい。
スクレイピングには向いてない。 >>651
> RSSがないのをRSS化するならkimono
> ttp://imabari.hateblo.jp/entry/2015/06/23/145853
ありがとう。
ツイッターをRSSリーダーで、まとめ読みしたいから試してみるよ。 >>655
Twitter読むならQueryfeedで読めるよ >>657
Omit direct messages (started with @someuser)
Omit retweets (started with RT)
Show images as attachments
この3つのどれにチェックを入れればいいのかがわからない。 >>658
自己レス
Omit direct messages (started with @someuser)
と
Omit retweets (started with RT)
にチェックを入れるんだな。 omitほにゃららにチェックを入れたら、該当するツイートを除外するんだと思うよ。
特定のユーザのツイートを全部取得したいなら、from:dave_spector みたいに指定してあげるだけで良いと思う。
もちろん、ダイレクトメッセージやリツイートは除外したいなら、それぞれにチェック入れれば良いよ。 HTMLをXPATHで抜いていた用途だとGASは弱いなぁ RSSの無いサイトをRSS化したくてkimono使ってみたけどなんかうまくいかなくてGASで挑戦してみた
HTML読むの確かに弱いみたいで、仕方ないから文字列として読んで正規表現だけでどうにか整形した
最初単一のスクリプトでRSS吐くようにしたらどうしようもなく遅かったけど
スプレッドシートに書き込むのと、スプレッドシートを読んでRSSとして出力するのに分けたらすごく速くなった
スプレッドシートのRSS化はググったらすぐ出てきたやつほぼそのまま使ったよ Google Apps Scriptが弱いとかありえん
弱いのはプログラミング能力じゃねーの >>663
そりゃまぁ自分のプログラミング能力に自信のある人ならなんでもできるのだろうけどさ
単なるサーバサイドで動くJS感覚で
スクレイピング特化のIDEからの移行という事を考えてもらわないと kimono登録して弄ったけどよく分からんかった
jsonとcsvは正常っぽいのにRSSだけおかしい
RSSの作成だけならfeed43でいいかなぁ
しかしフィルタリングも必要だからなんとかしなきゃ… 単なるフィルタルングはフィードリーダー側に付くべきだと思ってるけど
googleもldrも結局付かなかったな >>663
やってみたらわかるけどxmlだとスクレイピングできないので結局正規表現しかない
いろいろ探してみたけどどれもタイトル引っ張ってくるだけのサンプルしか見つからなかった >>665
名前を以下の名前にしてないとRSSにならないよ
Aは必須、Bはあってもなくても、Cはなくても
A
title タイトル(リンク含)
B
description 内容
pubDate 日付
C
author
category
comments(LINK)
あとコレクションがひとつで抽出している数が全部同じじゃないとRSS化できなかった。
フィルタはこのサンプルでできた。
ttp://imabari.hateblo.jp/entry/2015/05/07/231225 >>668
titleはtitle(LINK)じゃなくてもいいのか
良かったらHatenaBlogの人が書いてる"それぞれのAPIを作成"ってどういうことか詳しく教えて欲しい kimonoっていつか有料になりそうだから怖くて使えねえ… >>669
>>668じゃないけど、そのブログで説明されているのは、リンクを取得する API(1)の作成と、1のAPIをソース(URLs from source API)にして title や description を取得するAPI(2)の作成、という2段構えでRSSを作成する手順だよ。
1個目のAPIでページからリンク抽出→1個目のAPIの結果をインプットにして2個目のAPIで詳細情報の抽出
なので、「1・2それぞれのAPIを作成する。」ってこと。
pipesでも複数のpipesをつなげるやり方があるでしょ。あんな感じ。 >>672
複数のpipesを繋げるやり方、でやっと理解
ありがとうございました xpath系は672の方法で大体kimonoで代用できそう。 XML Service Service | Apps Script | Google Developers
https://developers.google.com/apps-script/reference/xml-service/
feedもhtmlもxmlなんだからこれ使えばいいだけじゃないのか?見当違いのこと言ってたらすまん >>675
feedとxmlはできるんだけど
htmlはXmlService.parse()するだけでエラーとかで使い物にならない。 >>676
なるほど構文解析が厳密で蹴られるのか、それは微妙だわ
pipesはそのへんかなり柔軟に対応してたな morph.ioから寄付のお願いメールが
どこもキツイのか >>679
うちのも止まってたけど15時頃からまた動き出したっぽい >>666
広告載せてるから無料でサービス提供出来てるRSSリーダーが
[PR]の文字はじく機能つけたら誰もカネ出さないだろ
アホみたいにシンプルで圧倒的に需要ある機能なのに
絶対に形にならないとか歪んでるよな Pipesの代用にはオーバースペックのような気がするけど。
それにこれを自鯖で動かせるなら簡単なPHPなりPythonなり書けると思うし、書いた方がが早い気がする。 >>683
ホスティングしてくれるから使ってたのに、自鯖用意するならイラネ
あんな面倒なコーティングやってられっか! >>686
> ホスティングしてくれるから使ってたのに、自鯖用意するならイラネ
それは言える これ使うならレンタルサーバーっていうよりVPSじゃないと kimono止まった時手動で再スタートさせないと
いつまでも止まったままっぽい? 止まってるのに気付かなくて2週間以上止まってたことあるから、多分そう myThings、Pipes引き継いでくれないかな 項目
項目
項目 new
項目
みたいなのをkimonoで抽出すると↓みたいなことになる。前は↑の状態のまま抽出できたのに…
項目 new
項目
項目
項目 あれこれ移行先考えたけど面倒くさくなってPC上で自作アプリ定期起動、
出力結果のrssをgoogle driveに配置で落ち着いた
リアルタイム性はあまり求めてないのでもういいわ ttp://blog.takuros.net/entry/2015/08/30/180823
実践 Webスクレイピング&クローリング-オープンデータ時代の収集・整形テクニック
http://www.amazon.co.jp/exec/obidos/ASIN/4839956472/
JS+Node.jsによるWebクローラー/ネットエージェント開発テクニック
http://www.amazon.co.jp/exec/obidos/ASIN/4883379930/ 結局メジャーな移行先は特に無く各々でなんとかしなければいけない感じか… まとめたRSSを自分で読む為だけにPipes使ってました。
仕方なく、自作のしょぼいRSSリーダープログラムを大幅改修して
複数RSS統合、重複記事排除、不要記事削除、日付順に
ソートなどの機能を追加して使ってます。
いまだに細かいバグはありますが、とりあえず、なんとかなりました。
2chMate 0.8.7.11/Borqs/Si01BB/4.2.2/LR 実践 Webスクレイピング&クローリング-オープンデータ時代の収集・整形テクニック
読んでみたけどamazonのレビュー通り
内容は初歩の初歩で終わりこんなツールがあるよって感じで
その先が情報が知りたいのにさわりだけで全然内容がない
pythonのコードが最初の頃と後ろの方にもあるけどまったく同じコード
目次見てツールの名前調べたんでいいレベル とりあえずjsonでバックアップだけはとっといた。 いくつか立ち上がってたクローン系のプロジェクトはどうなったんだろ・・
ここまで代替が来ないなんて思ってなかった 代替サービスがあってもPipesからそのまま引き継ぐのは期待できなかったし、
新しいサービスで同じ内容を組み直すくらいなら、その苦労の時間を使って
なにか言語を習得して自分でコード書いたほうがいいのは明らか。
かなり時間はあったのに何やってたんだよ。 仕事してたらそんな余裕ねーよと言いたいが
正直きついな もう編集できないだけじゃなくて中身見れないのかな
一番使ってた奴は大体覚えてるからいいけど あとわずかで使えなくなるんだ
代替なくて困ったままだけど世話になったな みんなどうするの
俺まだなにもしてなくて、とりあえず今大急ぎでjsonだけ確保してるところ。 時間なくてjavascriptの習得も、GASで自分のやりたいことを動かすレベルまでに達っせてないが、コツコツ続けるしかない… あっちの時間の9/30だろうから、まだ明日のお昼くらいまで使えるかな。
なくなるのは本当に残念だが、仕方ない。ありがとう、Yahoo!pipes! phpできる人は羨ましい。
pipes確認したらまだ動いてるね 既存のRSSを正規表現とかでフィルタリングして別のRSSとして吐き出す(そしてFeedlyあたりで読む)
みたいなのをやるにはGASが手頃っぽいんだけどなかなか難しい…
ネットで断片的な情報はいくつか見つかるから再利用させてもらおうとは思っているのだが pipes逝ったー!
いままでありがとうございました! これと言った代替サービスも無いまま、普通に終了してしもうた >>722
GAS使用でソースがRSSならhtmlスクレイピングするより数段楽だぞ
頑張るんだ >>727
スクレイピングもyqlとかPage2Feed併用すりゃxmlに(無理やり)変換してくれるので楽々。
function fetchXPathPage (url, xpath, html5, charset) {
const yqlapi = 'https://query.yahooapis.com/v1/public/yql?';
const Q = "'";
var query = 'select * from html where url=' + Q + url + Q;
if (!(html5 === false))
query += ' and compat=' + Q + 'html5' + Q;
if (charset)
query += ' and charset=' + Q + charset + Q;
if (xpath)
query += ' and xpath=' + Q + xpath.replace(/\'/g,'"') + Q;
var yql = yqlapi + 'format=xml&q=' + encodeURIComponent(query);
var contents = UrlFetchApp.fetch(yql).getContentText();
var document = null, xml = null;
try {
document = XmlService.parse(contents);
} catch (e) {
document = null;
}
if (document)
xml = document.getRootElement().getChild('results');
return xml;
} こういう状況でまだYQLとかいつ終わってもおかしくないサービスに頼るってのが
ちょっと私には理解できないですね それだとあらゆるウェブサービス否定になっちゃうからね yqlは残ってるんだ。でもyqlも多分お金は稼げてないよね。マネタイズっていうんだっけ? リーダーの時みたいに代替が出てくるかとと思って
様子見てたら出遅れたので
単純で更新頻度が高いのはKimonoに
複雑で更新頻度が低いのはFeed43に
複雑かつ更新頻度が高いのは自作perlに
なんとか振替終わった。
PHPが理解できればもうちっと楽できたんだろうけど。 >>733
PHPのほうがカンタンじゃない?私はperlわかりません^^; ttp://run.pipes.yahoo.com/
ミラーがまだ動いている
Yahoo! Pipesのミラーサーバーは未だ稼働中 - K'conf
ttp://kenz0.s201.xrea.com/weblog/2015/10/yahoo_pipes.html 安いのにコスパ高くてしかもうまいw
味噌汁もついてきてこの寒い朝にピッタリだねw
http://i.imgur.com/HEONEbG.jpg
※画像は豚汁変更と大盛のオプションを付けております。
あとすき家は国産の米を使っているから他店より味もいいねw
詳しい食べ方はこれをみてくれw
http://www.riki35.com/tabearuki/yahatahigasiku/3140/
一応他にもチーズ牛丼や鍋やおいしいメニューがいっぱいあるから公式ホームページもはっとくわw
http://www.sukiya.jp/sp/
お前らwお腹が空いたらすき家に行こうw >>738
パイパイじゃなくてパイプスだよ、ここは 俺はいつもNHK・新聞勧誘が来たらまず服を脱ぐ(靴下以外)。
そしてドアを大きく開ける。
たいていの勧誘人は1分以内に帰る。
一度だけ、フルチンの俺を無視して勧誘を続ける新聞勧誘がいたが、
俺が勃起してきたのを見て帰っていった。
楽勝。 pipes終わったけど
お前ら今だから言える
こんなRSS取得してましたっての言っていけよ
それで供養としよう
俺は毎日虹美少女画像が流れてくるDanbooruの
ランキング上位画像だけ吐き出してくれるPipes作って
ニタニタしてました、お世話になったよありがとうYahoo Pipes ラノベ天狗っつうインターネット妖怪がいるんだが
それの真似事するのにtwitterの検索結果からbotを取り除くので使ってた
バイバイYahoo Pipes Ceron.jpのRSSのうち、コメント数が特に多いもの(3桁以上)を抽出するのに使ってた
あとアメブロの全文取得&画像表示RSS 結局代替はどうしたんだよお前ら
統合とフィルターと全文表示くらいしか使ってなかったが
pipesほど簡単に出来るのないんか Twitterで好きなテレビ番組情報呟くbot作ってたよ。
番組HPから次回告知の情報抜いて、次回放送までの時間計算させて定期的にRSS作って外部サービスと連携させてた。 RSS吐かせるのが恋しくなってFEED43試してみたら
pipesのときと同じ感覚で正規表現で抜き出せて安心した
有料プランも魅力的だけど高くて悩む https://www.kimonolabs.com/
Kimono終了のお知らせ。
また代替サービスが一つ減った。 このCGIでRSS・RDF・Atomフィードの解析・生成・変換・結合できるみたい
http://www.kawa.net/works/perl/feedpp/feedpp.html
フィルタもできるみたいなのですがサンプルないかな なんでそれを使おうと思ったのかしらないけど、
サンプルならそのページに書いてあるじゃん 今見たらコメントにマッチの仕方書いてた
とりあえず結合・フィルタできた
>>758
そこのページのコメント欄に書いてるけど
マッチの書き方のサンプルが間違ってたんだ kimonolabsのツイッターアカウントをフォローしてるユーザを usespiranca というアカウントがフォローしだした。関係者なのかどうかは不明だけど、類似サービスを出すって言ってる。
https://twitter.com/usespiranca
メールアドレス収集目的かもしれないから、実際にローンチするまでは眉唾だけど。 Happyou Final Scraper
あらゆるウェブページをRSSフィードに変換します
https://happyou.info/fs/ >>761
そこしょっちゅう落ちてない?
今もサンプルの生成されたRSS見ようとしたら「Unkown:db error」ってなった。俺環? https://paiza.io/help
WEBサイトのスクレイピングなどもpaiza.IOで実行可能です。
どこかサンプル知りませんか?
PythonとかでBeautifulsoup使えるといいのですが Kimono for Desktop の Windows版、最初は起動時にエラーが出たりしたけど、数回起動し直したら動くようになった。
とりあえずローカルでは動くのを確認できたし、まだ試してないけど Firebase で動かせるみたいだから一安心。
それと、pipes/kimono の代替としては https://www.apifier.com/ ←これも良さそう。 http://imabari.hateblo.jp/
PerlでスクレイピングとRSS変換してGASでCRON動かしているようなのですが
無料でPerlのCGI動くところないですか
それとも新しいRaspberryPiでも買って自鯖がいいのかな 簡易的に使ってたPage2RSSが止まったとかでもう泣きそう 通話料が激安になるブラステル(050 Free)で、かなり遅延や音声途切れが発生する方は、以下の設定を試してください
○ Wifiと3Gのコーデックは2つ(GSM、G.711u-Law)とも有効にしておく
○ エコーキャンセルをOFF(チェックを外す)にする
○ あとの設定はデフォルトのまま
http://blog.livedoor.jp/gnunobian/archives/52013458.html
上記の設定でも音質が悪い方は、wolfsonの高音質チップを搭載した機種(Galaxy 初代S、S3、S6、 SH-06E、SH-07E、206SH、 Galaxy Note II)に買い換えて下さい
なお、発信だけ改善すれば良い方は、MizuDroidをデフォルト設定のまま使用すれば、かなり改善しますが一時間で着信できなくなり電池使用量も多くなるので、通話終了後はMizuDroidも終了させて下さい
500円以下の格安SIMで使えて登録・月額無料、IPベース発信なら携帯へは5.5円/30秒、固定へは8円/3分
http://blog.jikoman.jp/2015/11/brastel-050-free.html
あと、050Freeの起動もしくは発着信が2週間以上ないとプッシュサーバー期限切れでプッシュ着信が出来なくなるので、Llama Location Profilesで1週間に一度050Freeを自動起動するように設定すればプッシュ着信できます
ファイル共有ソフトの世界が変わる。匿名通信(Tor、i2p等)ができる Perfect Dark ・ Share ・ Winny みたいな、
BitTorrent(Covenant)が活発な情報交換・交流コミュニティでオープンソース開発されています(プロジェクト支援者募集中)
PayPalからの寄付はいくらでも大丈夫だそうなので、Covenant開発プロジェクトを支援したい!って人居ませんか?
https://pledgie.com/campaigns/26321
Covenantの作者(Lyrise氏)がそういう人と話したいそうなので、よろしければツイートお願いします<(_ _)>
https://twitter.com/Lyrise_al
ちなみにオイラはCovenantの完成が待ち遠しいプログラミングできない情報発信好きアスペルガーw
最後にロケットストーブの焚き口へ超省電力なDC扇風機で風を送ると、横引き煙突が12m以上あっても煙が逆流してきません。
よって、横引き煙突で超高効率な熱回収ができるので薪が少量で済みます
あと、燃焼室の大きさは『無煙竹ボイラMBG150』で検索して参考にして下さい
え マ イ ン ド コ ン ト ロ ー ル の手法
・沢山の人が、偏った意見を一貫して支持する
偏った意見でも、集団の中でその意見が信じられていれば、自分の考え方は間違っているのか、等と思わせる手法
・不利な質問をさせなくしたり、不利な質問には答えない、スルーする
誰にも質問や反論をさせないことにより、誰もが皆、疑いなど無いんだと信じ込ませる手法
偏った思想や考え方に染まっていたり、常識が通じない人間は、頭が悪いフリをしているカルト工作員の可能性が高い
靖 国 参 拝、皇 族、国 旗 国 歌、神 社 神 道を嫌う カ ル ト
10人に一人は カ ル ト か 外 国 人
「ガ ス ラ イ テ ィ ン グ」 で 検 索 を ! >>735ってまだ生きてるの?さすがにもう死んでる?
自分で試したいけどもうパイプのURLとか記録に残ってないw >>776
検証の意味でまだ残してるけど、何ヶ月かおきに流れてくるぐらいの間隔
完全に死んではいないようだが、実用性は皆無 >>777
ありがとう。
その状態でなお完全に死んでないのがすごいなw >>773
RaspberryでPython動かしてスクレイピング
簡単なのは自鯖でPerlを動かしてRSS GASのみかAPIFIER+GASに落ち着いた
自鯖を避けたい人にはいいと思う >>770
ざっと見た感じ、Page2RSSと使い勝手が近そうなのはこれ。ほぼ同じ。
http://pagemon.net/
こっちはもう少し細かく設定できるのかな。
http://www.balluche.fr/html2rss.php なんか ScraperWiki にユーザ登録したメールに新しいサイトの連絡が来たよ。
quickcode.io
とかいうサイト、ScraperWikiと同じユーザIDとパスワードでログインできたし、データも引き継がれてた。 ついにYQLが使い物にならなくなったか
"message": "html table is no longer supported. See https://policies.yahoo.com/us/en/yahoo/terms/product-atos/yql/index.htm for YQL Terms of Use"
トップページのexampleがエラーはいてて笑った
https://developer.yahoo.com/yql/ YQLのこないだのは事なきを得たけど、今度はダメなんか? うん
正規表現を書き直したりするのが面倒だったけど、その程度
今回はダメっぽいなー YQLのRSS-JSONコンバーターが死んでる件? 悪いひとたちがやって来て
みんなを殺した
理由なんて簡単さ
そこに弱いひとたちがいたから
女達は犯され
老人と子供は燃やされた
悪いひとたちはその土地に
家を建てて子供を生んだ
そして街ができ
悪いひとたちの子孫は増え続けた
朝鮮進駐軍 関東大震災 日本人大虐殺
https://goo.gl/FTqHJ1
https://goo.gl/1ntWvZ
https://youtu.be/D0vgxFC04JQ
https://goo.gl/h1o4eV
https://www.youtube.com/watch?v=sYsrzIjKJBc サイトで友達が稼げるようになった情報とか
⇒ http://rprpe093w.sblo.jp/article/181823411.html
興味がある人だけ見てください。
U64YN5INKU 国を保てなくなり頼むから併合してやったのに、
恩を仇で返すバカチョン民族。
従軍慰安婦問題?
そんな問題はない!
親が金に困り娘を売った。
娘は知らなかった。
それだけだ。
恨むならチョンなんかに生まれた運命を恨め。
恩を仇で返すバカチョン民族。
世界の三大嫌われ民族
チョン公
ユダ公
露助
東洋のユダ公=チョン公。
在日、巣へ帰れ、失せろ、消えろ。
在日は、羞恥心がないから、日本人の蔑む仕事をやる。
そういう仕事は、金になる。
アイデンティティがないから、金しか頼るものがない。
白丁←検索のこと。 >>790-796
https://developer.yahoo.com/yql/
Important EOL Notice: As of Thursday, Jan. 3, 2019, the YQL service at query.yahooapis.com will be retired.
This will impact users of datatables.org as well as developers who creates features using this YQL service.
To continue using our free Yahoo Weather APIs, use https://weather-ydn-yql.media.yahoo.com/forecastrss as your new API endpoint.
Contact yahoo-weather-ydn-api@oath.com for credentials to onboard to this free Yahoo Weather API service.
Other YQL based services that use query.yahooapis.com will no longer operate. IT問屋名古屋店に注意
いい加減な店
嘘を吐かれた上に長々と待たされ応対も不誠実! Yahoo!mobage、馬鹿サイト、糞サイト、
芥!屑!滓!使い物にならない!
潰れろ!死ね!地獄へ堕ちろ! 2015年に終了したWebサービスなのに必死にageてる奴がおるんや、気にすんな ミスターパイプス>>1に聞けば教えてくれるかもしれない これ良かったのになあ
無くなってしまって一番残念なサービスだ (-o-)y-o0○ ( -.-)ノ⌒-~ ヽ(*-.-)┌θ-~ グリグリ レス数が900を超えています。1000を超えると表示できなくなるよ。