웹데이터 2
import
(1) from urllib.request import urlopen
(2) from bs4 import BeautifulSoup
url
url = "https://finance.naver.com/marketindex/"
page = urlopen(url)
soup = BeautifulSoup(page, "html.parser")
print(soup.prettify())
pip install request
find, findAll = select, select_one
필요한 리스트만 찾기
(1) exchangeList = soup.select("#exchangeList > li")
(2) 아이디는 #exchangeList
(3) 클래스면 .exchangeList
(4) > 는 바로 밑에라는 의미
웹데이터 3~4
Ctrl+Enter
(1) 셀이 내려가지 않고 같은 자리에서 실행한다.
isinstance( )
(1) 자료형 True/False
특정 페이지 읽기
(1) 예시
ua = UserAgent()
req = Request(df["URL"][0], headers={"user-agent":ua.ie})
html = urlopen(req).read()
soup_tmp = BeautifulSoup(html, "html.parser")
soup_tmp
가격만 추출하기
(1) '\n$10. 2109 W. Chicago Ave'
(2) re.search("\S\d+.(\d+)?", price_tmp).group()