ProcessPoolExecutorを使ってphantomjsでクロールした結果をデータフレームにして
受け取っているんですが、クローラー側がエラー止まってしまい最後まで終わりません。
クローラー(定義した関数)には@timeout_decorator.timeout(60)を設定してありますし
webdrivr自体のタイムアウト処理も設定してあります。
こういった場合はどのように対処すればよろしいでしょうか?

executor = ProcessPoolExecutor(max_workers=5)

futures = [executor.submit(crawl,url) for url in airticle_url_df['URL']]
N = 0
for future in concurrent.futures.as_completed(futures):
↑ここのfor文でクローラーが終了しないので結果をずっと待つことになる。
try:
N += 1
print(N)
tmp = future.result(60)
if len(tmp)!= 0:
ad_result = pd.concat([ad_result,tmp])
except:
pass

executor.shutdown()