# Crawling

파이썬으로 엑셀에 데이터 저장
터미널에서 다음 명령어 입력하여 다운결과엑셀 파일을 열고 네 종목의 주식 현재가를 가져와 저장한다.결과https://www.inflearn.com/course/%ED%8C%8C%EC%9D%B4%EC%8D%AC-%ED%81%AC%EB%A1%A4%EB%A7%81-

네이버 주식 현재가 가져오기
현재가를 어느 태그에서 가져오는 게 좋을까?이런거는 한글자씩 되어있어서 크롤링하기 쉽지 X여기서 가져오자!url 분석https://finance.naver.com/item/sise.naver?code=207940파라미터로 code를 받는 걸 알 수 있다. 여기
crawling & scraping
웹사이트, 하이퍼링크, 데이터, 정보 자원을 자동화 방법으로 수집, 분류, 저장 하는 것.여러 웹 페이지를 돌아다니면서 어떤 데이터가 어디에 있는 지 색인(index)을 만들어 데이터베이스(DB)에 저장하는 역할크롤링 기술이 악용이 될 수 있는데, Meta 태그의 no

검색어 받아 뉴스 데이터 여러 페이지 반복 가져오기
간단한 팝업창을 띄워 입력받을 수 있게 하는 마우스, 키보드 매크로 라이브러리request.get 안 url의 검색어 부분을 inputTxt 변수로 바꿔교보문고에 대해 가져온 결과 (이전 글 참고)다음 페이지들로 넘어가며 url이 어떻게 바뀌는지 확인한다.두번째 페이지

뉴스 데이터 수집
가져오려는 정보가 어떤 태그로 이루어져 있는지 확인한다.ctrl + f로 원하는 정보의 클래스 / 아이디명을 검색(클래스는 ., 아이디는 뉴스 링크 태그들을 골라서 프린트 해주면

2022 10기 Session #5.
중간고사가 끝나고 나서의 첫 세션! 5월 3일 세션은 10기 운영기획부 운영진인 민선아님께서 진행해주셨습니다.선아님께서는 저번 방학때 진행되었던 HUFS Missing Semester에서도 Crawling을 다뤄주셨는데 이번 세션에서는 더욱더 업그레이드 된 강의로 진행

자바스크립트로 웹크롤링하기 (2) - async, await, promise 이해하기
크롤링을 시작하기 전에, 한번 구상을 해봐야합니다. 제 페이지에서 만들어놓은 종목들이 많기때문에, 종목을 클릭하면 그 종목에 맞는 크롤링된 뉴스들이 보여져야 합니다. 다만... 그렇다면 종목마다 html 페이지를 따로 만들어야 하나요?
스파르타 코딩클럽 3주차
python, 크롤링(crawling), DB(pymongo를 통한 mongoDB) 파이썬 패키지(package) 패키지? 라이브러리? > Python 에서 패키지는 모듈(일종의 기능들 묶음)을 모아 놓은 단위 이런 패키지 의 묶음을 라이브러리 라고
scrapping & crawling
다른 사이트에 있는 정보 가져오기 어떻게?? 백엔드에 있는 API들을 통해 html도 주고받을 수 있다. 백엔드에서 주소에 맞는 html을 받을 수 있다. git bash에서 curl 명령어로 실습가능 postman 에서도 확인 가능 라이브러리 : cheerio, puppeteer scrapping 한번 가져오기 -> Cheerio(npm 라

파이썬 크롤링으로 파일들 다운받기
파일을 1600개 정도를 다운받아야 되는데 이거 하나하나 다운받고 파일명 고치다간 폭삭 늙을거 같아서 당장 크롤링 시작전체코드결과물코드 뜯어보기세팅하기beautifulsoup4와 requests를 설치한다.beautifulsoup4를 쓰려면 Python 3.9 이하를

Billboard Chart 비공식 API
Github action 을 사용하여 15분 마다 billboard를 크롤링하고 저장한 데이터를 github에 푸시하여 json 타입으로 가져다 볼 수 있는 api를 만들었습니다.링크 : https://github.com/KoreanThinker/billboa

Scraping & Crawling?? 뭔데?
Scraping? Crawling? 너가 좋아하는 웹페이지 불러올수 있어!! 뭐? 캡쳐하면 그만이라고? 우리는 개발자인데..??커몬~~