728x90
728x90
pip install requests
설치 !
import requests
url = 'https://www.naver.com'
a = requests.get(url)
#print(a.status_code) # 응답 상태 확인 200이면 정상
# 404 not found
#print(a.encoding) # 웹에서 사용하기 편하게 하는 것
# 여기서는 UTF-8이다.
#print(a.text[:300]) # 내용 확인 300까지만
html = a.text # 저장
open('naver.html','w',encoding ='utf-8' ).write(html) # 이름, 모드 (쓰기), 인코딩 정보
# 열어보면 메인 페이지만 나온다.
url에서 년, 월, 일등 다양한 정보가 포함되어 있다.
https://www.weather.go.kr/w/obs-climate/land/past-obs/obs-by-day.do?stn=108&yy=2020&mm=6&obs=1
물음표 기준으로 오른쪽에 정보가 주르륵 나열되어 있다.
서울 날씨 저장하기!
import requests
def get_page(stn,yy,mm):
url = f'https://www.weather.go.kr/weather/climate/past_cal.jsp?stn={stn}&yy={yy}&mm={mm}'
a = requests.get(url)
return a.text
stn = 108 # seoul
yy = 2020
for mm in range(1,13): # 1월부터 12월까지
html = get_page(stn,yy,mm)
fpath = f'{stn}_{yy}_{mm}.html'# 파일 이름 지정
open(fpath,'w',encoding='utf-8').write(html) # 저장
print(fpath,'saved') # 저장되었는지 확인
BeautifulSoup !
설치해야한다!
pip install beautifulsoup4
cmd에 작성해주시면 됩니다.
import requests
from bs4 import BeautifulSoup # 원하는 정보 추출하는 용!
user = 'candy'
r = requests.get(f'https://dic.daum.net/search.do?q={user}') # 검색하기!
soup = BeautifulSoup(r.text,"lxml") # parsing = 특정 문장을 분석, 해석
# 이것도 설치해야 하네요
# pip install lxml
print(r)
#print(soup.prettify) # 이건 오류나네요 ㅠ
728x90
'개발 > 파이썬 업무 자동화' 카테고리의 다른 글
파이썬 = 웹 페이지 다운로드 하기 (0) | 2024.02.23 |
---|---|
파이썬 - 웹 크롤링 및 Unicode (0) | 2024.02.23 |
실습 - 키보드 자동화 (1) | 2024.02.21 |
실습 - 화면(이미지) 좌표 찾기 (0) | 2024.02.20 |
실습 - 마우스 자동으로 동작시키기 (0) | 2024.02.20 |