noodles 19f1b843af md_edit | преди 2 години | |
---|---|---|
result | преди 3 години | |
utility | преди 2 години | |
HKS須重爬店家.csv | преди 2 години | |
README.md | преди 2 години | |
category.csv | преди 3 години | |
details.xls | преди 2 години | |
get_google_id.py | преди 2 години | |
hot_pot.xls | преди 2 години | |
jared_pureselenium_shop_item_list.py | преди 3 години | |
jared_run.py | преди 2 години | |
jared_shop_item_list.py | преди 2 години | |
lat_long_location.csv | преди 3 години | |
lat_long_search.py | преди 3 години | |
linux_loop.sh | преди 2 години | |
location_list.csv | преди 3 години | |
loop_5555.bat | преди 2 години | |
loop_6666.bat | преди 2 години | |
loop_rep.py | преди 2 години | |
loop_storelist.bat | преди 2 години | |
run.py | преди 2 години | |
run2.py | преди 3 години | |
run3.py | преди 2 години | |
run4.py | преди 2 години | |
run5.py | преди 2 години | |
shop_item_list.py | преди 2 години | |
start.sh | преди 3 години | |
swire_docker_itemlist.py | преди 2 години | |
swire_shop_item_list.py | преди 2 години | |
swire_shop_review.py | преди 2 години |
Google Poi Crawler
Code : swire_shop_review.py
Execute:
python swire_shop_review.py [port] [proxyport]
swire_store_list
(line 103): store shop list
reviews_table
(line 232): store crawler result, use Function save_js_to_db
to save parsing data into database
db_columns = ['author_id','author_page','author_name', 'author_image','author_review_count','review_time','review_content','review_image','store_review_time','store_review']
review_process
(line 271): store cralwer status
Function get_next_job
(line 98): get shop list, data column need ==shop url== (code called item_url), ==fid==, ==shop rating counts== (code called user_ratings_total)
Use ==fid== as all db key
Function get_reviews
(line 205): Check if the store has reviews first and use shop rating countsdivided by three as page down counts.