Pythonオフィシャルサイト
http://www.python.org/
■前スレ
Pythonのお勉強 Part56
http://mevius.5ch.net/test/read.cgi/tech/1519430841/
次スレは>>980が挑戦する
ソース貼れるサイト
https://pastebin.com/ ペーストビン
https://ja.osdn.net/pastebin/ OSDNコピペ ログインしないで投稿すると一週間で自動削除
Pythonのお勉強 Part57
■ このスレッドは過去ログ倉庫に格納されています
1デフォルトの名無しさん
2018/06/25(月) 09:57:59.24ID:aY7uj4w52018/06/25(月) 11:36:25.91ID:dToWkiL+
>>1乙
2018/06/25(月) 13:47:46.64ID:f2ggMv3H
/ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄
,__ | >>1がロリコンで捕まりますように……
/ ./\ \_______________
/ ./( ・ ).\ o〇 ヾ!;;;::iii|//"
/_____/ .(´ー`) ,\ ∧∧ |;;;;::iii|/゙
 ̄|| || || ||. |っ¢..|| ̄ (,, ) ナモナモ |;;;;::iii|
|| || || ||./,,, |ゝ iii~ ⊂ ヾwwwjjrjww!;;;;::iii|jwjjrjww〃
| ̄ ̄ ̄|~~凸( ̄)凸 ( ,,)〜 wjwjjrj从jwwjwjjrj从jr
,__ | >>1がロリコンで捕まりますように……
/ ./\ \_______________
/ ./( ・ ).\ o〇 ヾ!;;;::iii|//"
/_____/ .(´ー`) ,\ ∧∧ |;;;;::iii|/゙
 ̄|| || || ||. |っ¢..|| ̄ (,, ) ナモナモ |;;;;::iii|
|| || || ||./,,, |ゝ iii~ ⊂ ヾwwwjjrjww!;;;;::iii|jwjjrjww〃
| ̄ ̄ ̄|~~凸( ̄)凸 ( ,,)〜 wjwjjrj从jwwjwjjrj从jr
2018/06/25(月) 14:06:54.30ID:Bcc7AEkr
>>1は幼女
5デフォルトの名無しさん
2018/06/25(月) 14:34:16.37ID:tpBtUwyy 乙py
2018/06/25(月) 14:54:34.34ID:aY7uj4w5
>>1はもとJKだよ! (`・ω・´)
7デフォルトの名無しさん
2018/06/25(月) 19:01:57.03ID:vlzUvJan2018/06/25(月) 22:28:43.69ID:QqjgPMvZ
コメントアウトするときに、"# "を行頭に挿入してくれるIDEは無いのかな。
どちらかと言うと軽量なIDLE、Pythonwin、PyScriptあたりは、"##"を行頭に挿入してしまい、変更設定もないんだよなぁ。
PyCharmはできるみたいだけど、他にはある?
どちらかと言うと軽量なIDLE、Pythonwin、PyScriptあたりは、"##"を行頭に挿入してしまい、変更設定もないんだよなぁ。
PyCharmはできるみたいだけど、他にはある?
2018/06/25(月) 23:11:36.53ID:f2ggMv3H
Atom
2018/06/25(月) 23:19:41.09ID:PMfNNsGj
>>8
それくらい手入力すればいいのに
それくらい手入力すればいいのに
2018/06/26(火) 01:29:31.49ID:UJYVTaby
他人が書いたテキストファイルから必要な行だけ抜き出そうとしたら
ファイルのほうの書式ミスだの誤植だのでうまくいかなかったときの悲しみ
ファイルのほうの書式ミスだの誤植だのでうまくいかなかったときの悲しみ
2018/06/26(火) 08:45:04.93ID:ayn5GnnW
scrapyで1分毎に1度アクセスしてスクレイピングをしたいのですが
毎回起動すると巡回するまでに時間がかかります
ですので起動しっぱなしで巡回させたいのですがどのようにしたらいいのでしょうか
spider内でsleepしたりもしたんですがアイテムの処理まで止まってしまいダメでした
毎回起動すると巡回するまでに時間がかかります
ですので起動しっぱなしで巡回させたいのですがどのようにしたらいいのでしょうか
spider内でsleepしたりもしたんですがアイテムの処理まで止まってしまいダメでした
2018/06/26(火) 10:22:32.88ID:oIj/6dLD
業務妨害を加速させたいとな?
2018/06/26(火) 11:33:00.83ID:q7eaTJhV
CrawlerRunner を使えばできそうな感じがする
ttp://scrapy-ja.readthedocs.io/ja/latest/topics/practices.html
scrapy自体使ったことないからよく知らないけどもw
ttp://scrapy-ja.readthedocs.io/ja/latest/topics/practices.html
scrapy自体使ったことないからよく知らないけどもw
2018/06/26(火) 13:42:21.19ID:ayn5GnnW
ありがとうございます
reactorの仕組みが理解できてないんですけど
.run()をループ内に入れると失敗するので以下のようにしたのですが
spiderの__init__は実行されてるのですがリクエストは実行されず最後にまとめてされてるみたいです
(この場合3分後に)
https://pastebin.com/6tvdPRnL
出力
__INIT__
__INIT__
__INIT__
start_requests
start_requests
start_requests
request: https://www.yahoo.co.jp/
request: https://www.yahoo.co.jp/
request: https://www.yahoo.co.jp/
reactorの仕組みが理解できてないんですけど
.run()をループ内に入れると失敗するので以下のようにしたのですが
spiderの__init__は実行されてるのですがリクエストは実行されず最後にまとめてされてるみたいです
(この場合3分後に)
https://pastebin.com/6tvdPRnL
出力
__INIT__
__INIT__
__INIT__
start_requests
start_requests
start_requests
request: https://www.yahoo.co.jp/
request: https://www.yahoo.co.jp/
request: https://www.yahoo.co.jp/
2018/06/26(火) 14:09:43.07ID:ayn5GnnW
とりあえずProcessを作りその中で実行するようにしました
コマンドだと10秒ぐらい掛かってましたがscriptから実行すると3秒ほどに短縮できたので!
コマンドだと10秒ぐらい掛かってましたがscriptから実行すると3秒ほどに短縮できたので!
2018/06/26(火) 17:44:51.37ID:tY6A4pT3
2018/06/27(水) 06:04:56.19ID:Av32bs5l
前スレ978です
お礼が大変遅くなって申し訳ありませんでした
すすめていただいた本をまずは書店で見てきたいと思います
ありがとうございました
お礼が大変遅くなって申し訳ありませんでした
すすめていただいた本をまずは書店で見てきたいと思います
ありがとうございました
2018/06/27(水) 16:18:33.53ID:TKlgNhKw
>>8
jupiterとvscodeならctrl+/で行頭に#入れてくれたと思う
jupiterとvscodeならctrl+/で行頭に#入れてくれたと思う
2018/06/27(水) 16:30:54.06ID:X2gyhKWn
vimならマクロ設定して@@でいける はいっ、vimの勝ちーー!
21デフォルトの名無しさん
2018/06/27(水) 16:38:58.81ID:2dfKv2YD vim最強
2018/06/27(水) 19:08:41.36ID:UerH7Abj
ネタなのか…
2018/06/28(木) 00:11:52.26ID:tMTnxUV1
pythonだとデータサイエンス屋さん以外でまともな人はたいていemacsかvim
2018/06/28(木) 00:30:32.41ID:lgGkat8A
ctrl+/ -> 2ストローク
esc @ @ -> 3ストローク
ダメじゃん
esc @ @ -> 3ストローク
ダメじゃん
2018/06/28(木) 00:38:37.07ID:h/Ekqdxp
vimなら ^, ctrl+V, jjjjj, I, #, esc が普通じゃない?
2018/06/28(木) 07:23:00.10ID:WgQA5F5F
トリプルクォートで文字列化
さっさと修正したらバッサリ削除してコミット。
さっさと修正したらバッサリ削除してコミット。
2018/06/28(木) 08:02:32.74ID:UbDQ2CeD
numpyってstrからastypeで変換できないんだな
2018/06/28(木) 09:33:32.71ID:9GisGdyJ
2018/06/28(木) 09:52:59.74ID:juJJBKVT
scrapy使い結構いるのかな? 私はrequestsでアクセスして正規表現でデータ抽出ですわ
30デフォルトの名無しさん
2018/06/28(木) 16:26:28.85ID:FdbC2U6h >>27
np.array(list('hoge'), astype='uint8')
np.array(list('hoge'), astype='uint8')
■ このスレッドは過去ログ倉庫に格納されています
ニュース
- 最新版Z級クソ映画ランキングが決定! [牛丼★]
- 「1800万円の売り上げゼロに…」中国インバウンドに特化の宿の今 ★2 [蚤の市★]
- 公用車カーナビのNHK受信料「全額免除を」 千葉市議会、国に制度創設求める意見書可決 [少考さん★]
- 【食】「シャウエッセンは焼くべからず」暗黙のルールを破り売上高過去最高…日本ハム社員たちが「夜味」にかけた情熱 [ぐれ★]
- 神田沙也加さん元恋人で元俳優の前山剛久 六本木のメンズラウンジ勤務を報告「真叶(まなと)です。よろしく」 [muffin★]
- 地震 [Hitzeschleier★]
- 変な人「俺は正しい!お前らは間違っている!」←大体こいつのほうが迷惑で間違ってる件について
- 好きなAA貼ってけ!!!!!!!!!!!!!!!!!!!!!!!!!!!!(´・ω・`)
- ココアさん好き好き大好き
- そろそろ地球も旅立たないの?
- 【朗報】南鳥島のレアアース、中国産の「20倍の純度」青山繁晴氏「日本は資源大国」日本復活のファンファーレが鳴り響く! [673057929]
- 「妨」という字が女へんという事実…
