このスレッドは、他のスレッドでは書き込めない超低レベル、
もしくは質問者自身何が何だか分からない質問を勇気を持って書き込むスレッドです。
へび使いが優しくコメントを返しますが、お礼は Python の布教と初心者の救済をお願いします。
エラーを解決したいときはエラー表示や環境(バージョン/IDE or command line)を略さずに書き込んで下さい。
騙りが頻発しています。質問する方は一時的なトリップをつけることを検討して下さい。
次スレは >>985 辺りで
前スレ
くだすれPython(超初心者用) その37
http://mevius.5ch.net/test/read.cgi/tech/1521271945/
探検
くだすれPython(超初心者用) その38
■ このスレッドは過去ログ倉庫に格納されています
1デフォルトの名無しさん
2018/05/17(木) 11:09:14.54ID:WeqM6vIc212パイソン初心者
2018/06/17(日) 22:36:30.93ID:lidrzVPC 目当てのサイトから必要な情報を抜き出し、csvに保存するところまではできたのですが、実際にやりたいことまで知恵が及ばず、こちらで質問することにしました。
現在のコード(sample.py)
──────────
import requests, bs4
import csv
import requests, bs4
res = requests.get('https://news.yahoo.co.jp/pickup/6286588')
res.raise_for_status()
soup = bs4.BeautifulSoup(res.text, "html.parser")
elems = soup.select('h2')
for elem in elems:
print(elem)
with open('news.csv', 'w', encoding='CP932', errors='ignore') as f:
writer = csv.writer(f)
writer.writerows(elems)
──────────
※URLとh2に関しては質問用です。
現在のコード(sample.py)
──────────
import requests, bs4
import csv
import requests, bs4
res = requests.get('https://news.yahoo.co.jp/pickup/6286588')
res.raise_for_status()
soup = bs4.BeautifulSoup(res.text, "html.parser")
elems = soup.select('h2')
for elem in elems:
print(elem)
with open('news.csv', 'w', encoding='CP932', errors='ignore') as f:
writer = csv.writer(f)
writer.writerows(elems)
──────────
※URLとh2に関しては質問用です。
213212
2018/06/17(日) 22:37:08.00ID:lidrzVPC >>212 続き
上記コードで1つのURLの"h2"が取得でき、"news.csv”に保存ができています。
でも本当は、情報を取得したいURLが大量あるのです。
URLは違うけど、同じサイトの中で、hmtlの骨組みが同じなので、アクセスするURLさえ変えることができれば他はそのままでいいです。
そこで、「URLがリスト化されたファイル"urllist.txt"の内容を読み込んで、一行目のURLから順々にアクセスして"h2"を取得し、csvに書き込んで保存するコード」というイメージでコーディングしたいと思っています。
※urllist.txtの内容
https://news.yahoo.co.jp/pickup/6286588
https://news.yahoo.co.jp/pickup/6286594
https://news.yahoo.co.jp/pickup/6286582
"requests.get"で指定するURLを別のファイルから読み込んで指定する方法、同じ処理を繰り返す方法、などで調べたのですが、必要な回答に辿り着くことができませんでした。
正解例がわかる方、どなたかお願いしますm(__)m
※urllist.txtはテキストファイルじゃなくてもいいです。
上記コードで1つのURLの"h2"が取得でき、"news.csv”に保存ができています。
でも本当は、情報を取得したいURLが大量あるのです。
URLは違うけど、同じサイトの中で、hmtlの骨組みが同じなので、アクセスするURLさえ変えることができれば他はそのままでいいです。
そこで、「URLがリスト化されたファイル"urllist.txt"の内容を読み込んで、一行目のURLから順々にアクセスして"h2"を取得し、csvに書き込んで保存するコード」というイメージでコーディングしたいと思っています。
※urllist.txtの内容
https://news.yahoo.co.jp/pickup/6286588
https://news.yahoo.co.jp/pickup/6286594
https://news.yahoo.co.jp/pickup/6286582
"requests.get"で指定するURLを別のファイルから読み込んで指定する方法、同じ処理を繰り返す方法、などで調べたのですが、必要な回答に辿り着くことができませんでした。
正解例がわかる方、どなたかお願いしますm(__)m
※urllist.txtはテキストファイルじゃなくてもいいです。
214デフォルトの名無しさん
2018/06/17(日) 23:47:02.24ID:zwR/a8LX まずファイルを読み込んで一行ずつ使用する方法と
関数を定義して処理を再利用する方法を覚えたら
https://docs.python.jp/3/tutorial/inputoutput.html#methods-of-file-objects
https://docs.python.jp/3/tutorial/controlflow.html#defining-functions
つーかその辺が分からずにそこまで行ったのはある意味凄いね
関数を定義して処理を再利用する方法を覚えたら
https://docs.python.jp/3/tutorial/inputoutput.html#methods-of-file-objects
https://docs.python.jp/3/tutorial/controlflow.html#defining-functions
つーかその辺が分からずにそこまで行ったのはある意味凄いね
216デフォルトの名無しさん
2018/06/18(月) 00:21:43.97ID:CeTul5Qc 3つのコードしか知らないのに優れた楽曲をつくるやつもいるからな
217パイソン初心者
2018/06/18(月) 00:38:30.76ID:QaoNGVd4 pythonは今日勉強を始めたばかりです。
プログラム自体が初めてですが、楽しいですね。
とても好きになりました。
解決したらまた書き込みにきますm(_ _)m
プログラム自体が初めてですが、楽しいですね。
とても好きになりました。
解決したらまた書き込みにきますm(_ _)m
218デフォルトの名無しさん
2018/06/18(月) 07:48:32.99ID:icV/mWqE 3つのコードでGoogleアシスタント作りました。
219210
2018/06/18(月) 08:53:40.84ID:sS1CU9Ao 自己解決しました
URLに&が含まれているとエラーになる件は&を^&に置換して渡せばよかったようです
URLに連番を付加する件は単純に関数の作り方が間違っていました
URLに&が含まれているとエラーになる件は&を^&に置換して渡せばよかったようです
URLに連番を付加する件は単純に関数の作り方が間違っていました
220デフォルトの名無しさん
2018/06/18(月) 15:22:22.29ID:5N4LUYzZ スクレイピングでろくなサイトがないから、ためしに本買ったらわかりやすくて最高ー
当たり前だけど本重要だな
当たり前だけど本重要だな
221デフォルトの名無しさん
2018/06/18(月) 16:32:39.69ID:c5Ieze8t その本の名前をを書けよ無能
222デフォルトの名無しさん
2018/06/18(月) 17:28:21.58ID:81MK0a/A >>219
解決してよかったぬ
解決してよかったぬ
223デフォルトの名無しさん
2018/06/18(月) 20:00:42.72ID:NEyGx0zg Rubyによるクローラー開発技法 巡回・解析機能の実装と21の運用例、
佐々木拓郎・るびきち、2014
よく知らないけど、Python なら、なでしこの作者、クジラ飛行机の本か?
そう言えば、巨匠がフレームワークの本を出したよ。
先に、無料のRails チュートリアルをやった方が良いと思うけど
Python Django 超入門、掌田津耶乃、2018
佐々木拓郎・るびきち、2014
よく知らないけど、Python なら、なでしこの作者、クジラ飛行机の本か?
そう言えば、巨匠がフレームワークの本を出したよ。
先に、無料のRails チュートリアルをやった方が良いと思うけど
Python Django 超入門、掌田津耶乃、2018
224デフォルトの名無しさん
2018/06/18(月) 20:24:00.31ID:PCvROOcF 発達障害はチンパンジーアイちゃんと小粋なトークしてろ
225デフォルトの名無しさん
2018/06/18(月) 21:41:23.20ID:ltR7ddTW ruby信者ホント気持ち悪い
226212
2018/06/18(月) 22:34:36.18ID:QaoNGVd4 解決しました。引き続き精進します。
227デフォルトの名無しさん
2018/06/19(火) 04:23:54.29ID:6x0qbtHZ スクレイピングする時に、
デフォルトのモジュールのみで、パースも正規表現駆使して拾いながら
手続きの流れのままにズラズラと構成しちゃダメかい?
デフォルトのモジュールのみで、パースも正規表現駆使して拾いながら
手続きの流れのままにズラズラと構成しちゃダメかい?
228デフォルトの名無しさん
2018/06/19(火) 05:01:01.25ID:0nk/xPMo <1><2></2></1>
正規表現は、木構造に対応できない。
<1>と</2>が、マッチしてしまう
jQuery, Ruby のNokogiri では、CSS セレクターを使う。
XPath よりも良い
正規表現は、木構造に対応できない。
<1>と</2>が、マッチしてしまう
jQuery, Ruby のNokogiri では、CSS セレクターを使う。
XPath よりも良い
229デフォルトの名無しさん
2018/06/19(火) 05:59:30.68ID:6x0qbtHZ 前後の文字列で肝心のデータ部分を特定・取得できさえすればいい場合は、
正規表現でもそんなには困らないんだけどね。
正規表現でもそんなには困らないんだけどね。
230デフォルトの名無しさん
2018/06/19(火) 09:16:28.04ID:a6uoRFLw 今時だれがrubyなんて使ってんだ?
PythonとBeautiful Soupでやるだろ。
本屋でもこの組み合わせばかり。
nokogiri?どころかruby自体の本すらない。
PythonとBeautiful Soupでやるだろ。
本屋でもこの組み合わせばかり。
nokogiri?どころかruby自体の本すらない。
231デフォルトの名無しさん
2018/06/19(火) 09:57:15.89ID:bbVl/Mhd seleniumでchromeのヘッドレスでダウンロードしたいんだけどどうしたらいいの?
232デフォルトの名無しさん
2018/06/19(火) 10:38:55.09ID:HcfbauBL >>231
ヘッドレス起動の仕方は↓とか嫁
tps://qiita.com/orangain/items/db4594113c04e8801aad
ダウンロードはzipファイルなら↓あたりを参考に
tp://toolsqa.com/selenium-webdriver/c-sharp/download-file-using-selenium-and-verifying/
ヘッドレス起動の仕方は↓とか嫁
tps://qiita.com/orangain/items/db4594113c04e8801aad
ダウンロードはzipファイルなら↓あたりを参考に
tp://toolsqa.com/selenium-webdriver/c-sharp/download-file-using-selenium-and-verifying/
233デフォルトの名無しさん
2018/06/19(火) 10:41:50.97ID:HcfbauBL >>232追記
Cからの書き換えなんていやだ!というなら↓とかみれ
tps://a-zumi.net/python-selenium-save-to-disk/
tps://qiita.com/py_maro/items/6e79e4049677cf43c398
Cからの書き換えなんていやだ!というなら↓とかみれ
tps://a-zumi.net/python-selenium-save-to-disk/
tps://qiita.com/py_maro/items/6e79e4049677cf43c398
234デフォルトの名無しさん
2018/06/19(火) 10:57:31.22ID:CdRPQvnG235デフォルトの名無しさん
2018/06/19(火) 11:14:22.26ID:CdRPQvnG236デフォルトの名無しさん
2018/06/19(火) 12:24:26.47ID:dYMcqEpR ほなヘッドフルでええやん
細かいことは気にすんな
細かいことは気にすんな
237デフォルトの名無しさん
2018/06/19(火) 19:56:07.63ID:HoCrEKEA PythonのIDLEの画面をクリアすることってできますか?
238デフォルトの名無しさん
2018/06/19(火) 20:02:06.90ID:q/YRP9sv >>237
ctrl + Lでできる
ctrl + Lでできる
239デフォルトの名無しさん
2018/06/19(火) 23:18:57.08ID:0nk/xPMo Ruby では、--headless オプション
options = Selenium::WebDriver::Chrome::Options.new
options.add_argument('--headless')
driver = Selenium::WebDriver.for(:chrome, options: options)
driver.navigate.to "ここにURL"
options = Selenium::WebDriver::Chrome::Options.new
options.add_argument('--headless')
driver = Selenium::WebDriver.for(:chrome, options: options)
driver.navigate.to "ここにURL"
240デフォルトの名無しさん
2018/06/20(水) 00:14:42.51ID:roLNtd78241デフォルトの名無しさん
2018/06/20(水) 07:19:49.66ID:pPwORwNI >>209
俺と同じ感想の人が居てた、python大好き
俺と同じ感想の人が居てた、python大好き
242デフォルトの名無しさん
2018/06/20(水) 08:12:14.73ID:pNRxkBp/ やりたいことに集中できるのがPythonの良さなのは同意するけど、便利な既製のデータ構造なんか他の言語にもだいたい用意されてるだろ
Pythonは文法がシンプルで記述の自由度が低く、変な例外的な仕様も少ないから、
どの書き方が美しいかなどというくだらないことをあまり考えなくていいんだよ
その結果、やりたいことに集中できる
Pythonは文法がシンプルで記述の自由度が低く、変な例外的な仕様も少ないから、
どの書き方が美しいかなどというくだらないことをあまり考えなくていいんだよ
その結果、やりたいことに集中できる
243デフォルトの名無しさん
2018/06/20(水) 09:59:20.08ID:/3yawfqw C++にもベクターっていう超便利さんが居るじゃん
244デフォルトの名無しさん
2018/06/20(水) 12:35:53.89ID:XX+H87IB 1円硬貨: 8 枚
5円硬貨: 3 枚
10円硬貨: 2 枚
50円硬貨: 2 枚
100円硬貨: 3 枚
↑の硬貨のセットを持っているとする。
これらの硬貨を使って支払える金額のうち、その支払いに使える硬貨の組合せが
一通りしかないものの数を求めよ。
これを計算するためのプログラムを作ったのですが、正しい答えが出ません。
どこが間違っているのでしょうか?
http://codepad.org/Hyc8E6HM
5円硬貨: 3 枚
10円硬貨: 2 枚
50円硬貨: 2 枚
100円硬貨: 3 枚
↑の硬貨のセットを持っているとする。
これらの硬貨を使って支払える金額のうち、その支払いに使える硬貨の組合せが
一通りしかないものの数を求めよ。
これを計算するためのプログラムを作ったのですが、正しい答えが出ません。
どこが間違っているのでしょうか?
http://codepad.org/Hyc8E6HM
245デフォルトの名無しさん
2018/06/20(水) 12:38:16.91ID:XX+H87IB246デフォルトの名無しさん
2018/06/20(水) 15:34:20.79ID:OnxnZInx >>243
Cの話してるところにC++の話題持ち込むと混乱するからやめて
Cの話してるところにC++の話題持ち込むと混乱するからやめて
247デフォルトの名無しさん
2018/06/20(水) 16:04:05.44ID:pwTbHfBQ プログラミング全くの初心者なのですが、beautiful soupというのを学ぶのに一番適している本やWebサイトってどれでしょうか?
248デフォルトの名無しさん
2018/06/20(水) 16:29:37.34ID:OnxnZInx ここで聞くのが早い
249デフォルトの名無しさん
2018/06/20(水) 18:27:58.86ID:+C1LL1e5 なにか作リながら覚えたほうがいいよ
250デフォルトの名無しさん
2018/06/20(水) 18:37:51.47ID:Ei8zBiKz251デフォルトの名無しさん
2018/06/20(水) 18:40:48.63ID:pwTbHfBQ とりあえずPythonによるWebスクレイピングという本買って勉強してみます
252デフォルトの名無しさん
2018/06/20(水) 19:36:01.15ID:f2SC6f9A まずチュートリアルくらいやってから目的に着手しろ
253デフォルトの名無しさん
2018/06/20(水) 19:41:13.26ID:pwTbHfBQ 了解です!
254デフォルトの名無しさん
2018/06/20(水) 19:41:29.35ID:j+YwaUS/ この間その本買ったけれどエキサイト翻訳かと思った
255デフォルトの名無しさん
2018/06/20(水) 22:49:52.55ID:NQCW3xu6 jQuery, Ruby のNokogiri の、CSS セレクターを参照。
XPath よりも良い
なでしこの作者、クジラ飛行机の本は、難しいのか
XPath よりも良い
なでしこの作者、クジラ飛行机の本は、難しいのか
256デフォルトの名無しさん
2018/06/21(木) 00:19:08.94ID:dFNQiNVu そんな言い方して初心者がわかるわけねーだろw
257デフォルトの名無しさん
2018/06/21(木) 00:34:34.36ID:9yZQgWTf またrubyスレ荒らしてこなきゃ…
258デフォルトの名無しさん
2018/06/21(木) 02:20:29.04ID:4X5SWneX 使命感なの?
259デフォルトの名無しさん
2018/06/21(木) 09:16:14.27ID:th0Ggf9H いいえ、自作自演です
260デフォルトの名無しさん
2018/06/21(木) 09:21:58.43ID:aMhGFfRi あたまいいな
261デフォルトの名無しさん
2018/06/21(木) 10:29:14.72ID:lfaMuH86 jythonみたいなやつでpython3のはありますか?
262デフォルトの名無しさん
2018/06/21(木) 12:28:34.50ID:Ngoevl6s ありません
263デフォルトの名無しさん
2018/06/21(木) 14:20:26.85ID:4fOpOd5u pypyならあります
264デフォルトの名無しさん
2018/06/21(木) 16:04:08.29ID:+lcgGtMn >>263
pypyってやつを使えばpython3とjavaを一緒に使えるんですか?
pypyってやつを使えばpython3とjavaを一緒に使えるんですか?
265デフォルトの名無しさん
2018/06/21(木) 16:46:24.14ID:4fOpOd5u 楽観的な解釈をするならばYes
質問者のレベルに合わせて考えるならNo
質問者のレベルに合わせて考えるならNo
266デフォルトの名無しさん
2018/06/21(木) 18:16:42.62ID:OqoFGLVJ Anacondaからjupyter notebookを立ち上げてプログラムを起動するとno module named intertoolsというエラーが出ます
中身を確認したり何度かプログラムを動かしていると動作します
数分前まで動いていたプログラムでさえ立ち上げ直後は上記のエラー発生するのですが同様のケースを経験された方はいらっしゃいますか?
中身を確認したり何度かプログラムを動かしていると動作します
数分前まで動いていたプログラムでさえ立ち上げ直後は上記のエラー発生するのですが同様のケースを経験された方はいらっしゃいますか?
267デフォルトの名無しさん
2018/06/22(金) 07:26:43.33ID:Msegs9yk ヘルプかマニュアルに書いてある
268デフォルトの名無しさん
2018/06/22(金) 09:31:36.57ID:MYEvMa8B itertools
269デフォルトの名無しさん
2018/06/22(金) 12:16:23.68ID:rBqx8nP+ 指定した値が入っているリスト番地を返すindexって命令がありますけど
あれの正規表現版みたいなのはないですか?
あれの正規表現版みたいなのはないですか?
270デフォルトの名無しさん
2018/06/22(金) 12:44:11.76ID:nYBVNtu1 みたいなのってなんやねん
271デフォルトの名無しさん
2018/06/22(金) 13:03:23.91ID:MYEvMa8B $1
272デフォルトの名無しさん
2018/06/22(金) 13:42:50.45ID:PcH7NVke273デフォルトの名無しさん
2018/06/22(金) 14:58:02.62ID:lWEcvKD/ idx = next(i for i, v in enumerate(hogelist) if re.search(r"hage", v))
こういう事言ってるのかと思った
こういう事言ってるのかと思った
274デフォルトの名無しさん
2018/06/22(金) 16:28:11.91ID:rBqx8nP+275遊園地
2018/06/22(金) 21:15:46.77ID:FpgraKib 2,3分で書くと、こんなもんかな。
import re
s = "012abc345def"
m = re.findall(r'[a-z]', s)
for i in m:print(i,re.search(i,s).span())
import re
s = "012abc345def"
m = re.findall(r'[a-z]', s)
for i in m:print(i,re.search(i,s).span())
277遊園地
2018/06/22(金) 22:22:53.99ID:FpgraKib 合計金額とか
ない感じ、ですかね。
ない感じ、ですかね。
278デフォルトの名無しさん
2018/06/22(金) 22:24:50.81ID:sTCVcul9279遊園地
2018/06/23(土) 09:53:25.33ID:rgQZb8eO できてないんじゃない?
50+10+10+1+1=72
50+10+5+5+1+1=72
50+5+5+5+1+1+1+1+1+1+1=72
etc..
50+10+10+1+1=72
50+10+5+5+1+1=72
50+5+5+5+1+1+1+1+1+1+1=72
etc..
280デフォルトの名無しさん
2018/06/23(土) 10:34:48.24ID:AshQdjwf 71通りになった
問題の解釈を間違ってなければだけど
問題の解釈を間違ってなければだけど
281デフォルトの名無しさん
2018/06/23(土) 11:37:24.13ID:Ixf2W+q9 スクレイピングしたら
requests.exceptions.ConnectionErrorがでて
「既存の接続はリモート ホストに強制的に切断されました」って表示されたんだけど
これ相手から弾かれたってことですよね
time.sleep(10) に入れてたんだけど少ないですかね。
requests.exceptions.ConnectionErrorがでて
「既存の接続はリモート ホストに強制的に切断されました」って表示されたんだけど
これ相手から弾かれたってことですよね
time.sleep(10) に入れてたんだけど少ないですかね。
282デフォルトの名無しさん
2018/06/23(土) 11:47:11.24ID:Kj6n8aPV サイトによるだろ。株やFXならともかく、普通のサイトだと気が狂ってるとしか思えんフェッチする連中がいるし。
283デフォルトの名無しさん
2018/06/23(土) 11:59:31.45ID:AshQdjwf denyされていなくてもサーバーが高負荷になってれば普通に出る
denyされてるのか単なるエラーなのかは切断の傾向から推測するしかない
それなしに、ただ切断されましたと言われても分かんないね
denyされてるのか単なるエラーなのかは切断の傾向から推測するしかない
それなしに、ただ切断されましたと言われても分かんないね
284281
2018/06/23(土) 12:44:32.88ID:Ixf2W+q9285デフォルトの名無しさん
2018/06/23(土) 13:17:45.77ID:AshQdjwf 接続を弾く場合、一般的にはファイヤーウォールやhttpdの機能を使う
それの設定の定番がallow-deny形式のルール
denyされた=ファイヤーウォールやhttpdで接続を拒否するように設定された
と考えて
それの設定の定番がallow-deny形式のルール
denyされた=ファイヤーウォールやhttpdで接続を拒否するように設定された
と考えて
286281
2018/06/23(土) 14:13:39.32ID:X4Sjt2iY >>285
ありがとう。止まったのは夜中だから機械的にアクセス拒否されたと考えてます。
timesleepの秒数をもっと長くして、あとrondomと組み合わせて、同じ時間感覚でアクセスするのやめるて様子みてみます。
ありがとう。止まったのは夜中だから機械的にアクセス拒否されたと考えてます。
timesleepの秒数をもっと長くして、あとrondomと組み合わせて、同じ時間感覚でアクセスするのやめるて様子みてみます。
287遊園地
2018/06/23(土) 14:24:38.20ID:rgQZb8eO 初歩的な対処法なら
同じIPアドレスからのアクセスの間隔が常にほぼ同じ秒数間隔の変更
同じIPアドレスから、同じユーザーエージェントで大量にアクセス IP変更で対処
人間らしくないきっちりしすぎるアクセス *1
何度もアクセスしてきているのに、セッションクッキーを絶対に送ってこない
__CookieはWEBサーバーが発行し、ブラウザが保持するキーと値
__セッションはWEBサーバーで保持するキーと値
確認方法
C:\Users\(ユーザー名)\AppData\Roaming\Microsoft\Windows\Cookies
ブラウザのアドレス欄に____javascript:document.cookie;
リファラーがまったくない ココは調べてる必要がある
*1
__HTMLだけにアクセスしてJavaScriptやCSS、画像にまったくアクセスしていない
注意:画像だけにアクセスしても同様に対処される
同じIPアドレスからのアクセスの間隔が常にほぼ同じ秒数間隔の変更
同じIPアドレスから、同じユーザーエージェントで大量にアクセス IP変更で対処
人間らしくないきっちりしすぎるアクセス *1
何度もアクセスしてきているのに、セッションクッキーを絶対に送ってこない
__CookieはWEBサーバーが発行し、ブラウザが保持するキーと値
__セッションはWEBサーバーで保持するキーと値
確認方法
C:\Users\(ユーザー名)\AppData\Roaming\Microsoft\Windows\Cookies
ブラウザのアドレス欄に____javascript:document.cookie;
リファラーがまったくない ココは調べてる必要がある
*1
__HTMLだけにアクセスしてJavaScriptやCSS、画像にまったくアクセスしていない
注意:画像だけにアクセスしても同様に対処される
288デフォルトの名無しさん
2018/06/23(土) 14:26:59.81ID:8e5n022B それこそ人工知能で人間っぽくみせるプログラムとかを作ってほしいですよね。
289遊園地
2018/06/23(土) 14:29:45.70ID:rgQZb8eO いくつかの書式形式から、HTML構造を頻繁に変えられると
もう、維持の張り合い
そんなサイトに出くわした事はない。けどなーw
もう、維持の張り合い
そんなサイトに出くわした事はない。けどなーw
290遊園地
2018/06/23(土) 14:35:43.61ID:rgQZb8eO291281
2018/06/23(土) 16:00:37.87ID:Ixf2W+q9 >>287
とても参考になります。
>同じIPアドレスからのアクセスの間隔が常にほぼ同じ秒数間隔の変更
やりました。今のところこれだけで大丈夫そうです。
>同じIPアドレスから、同じユーザーエージェントで大量にアクセス IP変更で対処
調べたらやり方がでてきたので、検討します。
>人間らしくないきっちりしすぎるアクセス *1
わかりました。覚えておきます。
>C:\Users\(ユーザー名)\AppData\Roaming\Microsoft\Windows\Cookies
Appdateというフォルダがなく、C:\Users\(ユーザー名)、までしか一致しなかったです。
Cドライブ指定で「Cookies」で検索しましたが、これに関係ありそうなファイルにはたどり着けませんでした。
こちらwin10(64)です。
>ブラウザのアドレス欄に____javascript:document.cookie;
やりました。なんか文字いっぱい出てきました。
>リファラーがまったくない ココは調べてる必要がある
検索結果のURLに直接アクセスしてるので、TOPの検索経由でスクレイピングする方法も試してみます。
とても参考になります。
>同じIPアドレスからのアクセスの間隔が常にほぼ同じ秒数間隔の変更
やりました。今のところこれだけで大丈夫そうです。
>同じIPアドレスから、同じユーザーエージェントで大量にアクセス IP変更で対処
調べたらやり方がでてきたので、検討します。
>人間らしくないきっちりしすぎるアクセス *1
わかりました。覚えておきます。
>C:\Users\(ユーザー名)\AppData\Roaming\Microsoft\Windows\Cookies
Appdateというフォルダがなく、C:\Users\(ユーザー名)、までしか一致しなかったです。
Cドライブ指定で「Cookies」で検索しましたが、これに関係ありそうなファイルにはたどり着けませんでした。
こちらwin10(64)です。
>ブラウザのアドレス欄に____javascript:document.cookie;
やりました。なんか文字いっぱい出てきました。
>リファラーがまったくない ココは調べてる必要がある
検索結果のURLに直接アクセスしてるので、TOPの検索経由でスクレイピングする方法も試してみます。
292遊園地
2018/06/23(土) 18:20:10.76ID:rgQZb8eO >>291
おめでとう。
こっちはURLまで取得できるけど、保存だと弾かれて苦戦中
試しにIPとブラウザ偽装でも、ダメだった。
諦めて、PyAutoGUIでキーボードでブラウザ操作に切り替え用か迷ってる。
おめでとう。
こっちはURLまで取得できるけど、保存だと弾かれて苦戦中
試しにIPとブラウザ偽装でも、ダメだった。
諦めて、PyAutoGUIでキーボードでブラウザ操作に切り替え用か迷ってる。
293デフォルトの名無しさん
2018/06/23(土) 21:41:08.02ID:m3qN670q 質問です。
こんなふうなスクリプトを書いています。
https://pastebin.com/0KKDbGnp
68〜75行目で変数に関数を代入していますが、77〜78行目をコメントアウトしてあるので何も動かないと思うんですが、実際には6行目の関数が動いてprint(〜)とinput()が求められてしまいます。
なぜ動くんでしょうか?
こんなふうなスクリプトを書いています。
https://pastebin.com/0KKDbGnp
68〜75行目で変数に関数を代入していますが、77〜78行目をコメントアウトしてあるので何も動かないと思うんですが、実際には6行目の関数が動いてprint(〜)とinput()が求められてしまいます。
なぜ動くんでしょうか?
294デフォルトの名無しさん
2018/06/23(土) 21:56:20.14ID:I6yycig3295デフォルトの名無しさん
2018/06/23(土) 21:58:47.18ID:1v1LX/MG 68行目でget_service_idを実行してるから。
関数の代入ではなく関数の評価結果の代入になってる。
だからget_service_id関数はそこで評価(実行)され、そこでinput求められてる。
関数の代入ではなく関数の評価結果の代入になってる。
だからget_service_id関数はそこで評価(実行)され、そこでinput求められてる。
296デフォルトの名無しさん
2018/06/23(土) 22:26:43.34ID:m3qN670q297デフォルトの名無しさん
2018/06/23(土) 22:33:19.54ID:AshQdjwf え、ifも分からないとかそういうレベルなの
ifは分かるの?どう?
ifは分かるの?どう?
298デフォルトの名無しさん
2018/06/23(土) 22:36:48.34ID:euiJmXfR if文は分かりますが、この場合どうやって使うんでしょうか?
299デフォルトの名無しさん
2018/06/23(土) 22:38:41.95ID:3sIWKIRG >>297
なんでいちいち煽るのスレタイ読めないの
なんでいちいち煽るのスレタイ読めないの
300デフォルトの名無しさん
2018/06/23(土) 22:41:53.16ID:AshQdjwf ifで77に必要なコードと78に必要なコードに分けろ
普通の頭ならそうする
>77や78を動かした時のみ上の関数が動くようにするにはどんな方法がありますか?
変数を一切使わなければいい
あのコードだと読み辛すぎて普通の頭ならやらない
普通の頭ならそうする
>77や78を動かした時のみ上の関数が動くようにするにはどんな方法がありますか?
変数を一切使わなければいい
あのコードだと読み辛すぎて普通の頭ならやらない
301デフォルトの名無しさん
2018/06/23(土) 22:57:34.69ID:m3qN670q302遊園地
2018/06/23(土) 23:03:26.61ID:rgQZb8eO303デフォルトの名無しさん
2018/06/23(土) 23:06:55.26ID:rgQZb8eO304デフォルトの名無しさん
2018/06/24(日) 15:48:36.36ID:RVJ6teNY スクレイピングに挑戦してるんだど
503や404のHTTPerror別に処理を分ける方法ってありますか?
503の時は動作停止
404の時は動作続行
としたいんだけど…
検索してもさっぱり手掛かり掴めないので、
方法としてあるかどうかだけでも知りたいです。
503や404のHTTPerror別に処理を分ける方法ってありますか?
503の時は動作停止
404の時は動作続行
としたいんだけど…
検索してもさっぱり手掛かり掴めないので、
方法としてあるかどうかだけでも知りたいです。
305304
2018/06/24(日) 15:52:00.43ID:RVJ6teNY306デフォルトの名無しさん
2018/06/24(日) 16:45:34.35ID:2Vrp11he プログラミングもやったことないんですが、いきなりpythonの入門書をやっていいのでしょうか?
307デフォルトの名無しさん
2018/06/24(日) 16:49:24.00ID:2Vrp11he それともPCの入門書みたいな本を先にやるべきでしょうか?
308デフォルトの名無しさん
2018/06/24(日) 17:11:02.94ID:uBBkkzH4309デフォルトの名無しさん
2018/06/24(日) 17:19:49.55ID:fW0KLT9g スクレイピングとapiについての質問なのですが
セキュリティ関連のあるサイトから検索し、結果を取得したいのですが提供されているapiがリクエスト上限が分間数件とかです…
もう少し効率よく取得したいのですがスクレイピングならこういう制限なく自由に取っていって良いんでしょうか?
robots.txtは確認しましたがdelayの項目は無く制限された階層?からの取得はありません。
セキュリティ関連のあるサイトから検索し、結果を取得したいのですが提供されているapiがリクエスト上限が分間数件とかです…
もう少し効率よく取得したいのですがスクレイピングならこういう制限なく自由に取っていって良いんでしょうか?
robots.txtは確認しましたがdelayの項目は無く制限された階層?からの取得はありません。
310デフォルトの名無しさん
2018/06/24(日) 17:22:56.35ID:iZ9NT8wM >>306
まずPythonをやる動機はあるのかい?
システムを外注する金がないからお前作れと上司から無茶振りされたとか、
学校の課題で出されたとか、具体的な動機がないとプログラミングは身につかない
ただやってみたいってだけで身に付くのは好奇心旺盛で頭が柔軟な子供のみ
まずPythonをやる動機はあるのかい?
システムを外注する金がないからお前作れと上司から無茶振りされたとか、
学校の課題で出されたとか、具体的な動機がないとプログラミングは身につかない
ただやってみたいってだけで身に付くのは好奇心旺盛で頭が柔軟な子供のみ
>>310
>ただやってみたいってだけで身に付くのは好奇心旺盛で頭が柔軟な子供のみ
子供は子供相応のやさしい課題をやるから「やってみたい」だけで身につく、という面があるのだろうね
プログラミングは複雑だし、単に覚えるだけではなく創る面もあるから、継続してモチベーションを維持しないといけない
モチベーションの維持ってどうすればいいのかな?
>ただやってみたいってだけで身に付くのは好奇心旺盛で頭が柔軟な子供のみ
子供は子供相応のやさしい課題をやるから「やってみたい」だけで身につく、という面があるのだろうね
プログラミングは複雑だし、単に覚えるだけではなく創る面もあるから、継続してモチベーションを維持しないといけない
モチベーションの維持ってどうすればいいのかな?
■ このスレッドは過去ログ倉庫に格納されています
ニュース
- 高市首相、トランプ米大統領に「早期に会いたい」 日中関係悪化受け… [BFU★]
- 【コメ】卸売業者「簡単に安売りできない」「大暴落起きれば大赤字に」 JA「新米の販売進度が近年になく遅い。コメの回転が悪い」 ★3 [Hitzeschleier★]
- 【将棋】福間香奈 女流六冠が会見 妊娠・出産でタイトル戦の事実上不戦敗 「妊娠したら、どちらか一方を諦めないといけない状況」★2 [冬月記者★]
- かつや、明日からカツ丼(竹)790円→590円、ロースカツ定食830円→630円、カツカレー(竹)990円→790円 画像あり [お断り★]
- 【配信】TikTokで収益化を剥奪される日本人クリエイターが続出 [muffin★]
- 日本、G7への中国招待を懸念 議長国フランスに慎重な対応要請 [どどん★]
- 高市早苗、トランプおやびんに泣きつくwwwwwwwwwwwwwwwwwwwwwwww [834922174]
- 防衛省「了解は言っていない」 [966095474]
- 企業・団体献金の規制強化をめぐる党首間協議について高市「引き継ぎ受けてないし知らん。約束ではない。野田も誘ってくれないし」 [389326466]
- 中国、日本人tiktokの収益剥奪開始wmwmwmwmwmwm [834922174]
- ケンモメンってなんでこんなに反日が多いの? [866936191]
- 防衛省「日本は正当な対応をした。危険行為をしたのは中国。中国は再発防止を徹底せよ」 [834922174]
