WHY NOT? M CAN DO

고정 헤더 영역

글 제목

메뉴 레이어

WHY NOT? M CAN DO

메뉴 리스트

  • 홈
  • 태그
  • 방명록
  • 분류 전체보기 (64)
    • 영어 (4)
      • 빨모샘 영어 (4)
    • 발자국 (2)
    • IT (22)
      • IT 강좌 (1)
      • CHAT_GPT (17)
      • PYTHON (2)
      • IT 도서리뷰 (1)
      • 나도코딩 (1)
    • 알려드릴께요 (1)
      • 시행착오 (1)
    • 육아정보 (10)
      • 유아영어 (10)
    • 패스트 캠퍼스[데이터분석 강의] (15)
      • 변수와 자료형 (1)
      • 입출력과 제어문 (3)
      • 클래스와 모듈 (1)
      • Numpy (1)
      • Pandas (1)
      • Matplotlib, Seaborn (2)
      • BeautifulSoup (3)
      • Netflix 데이터분석 (2)
    • Thinking (0)
    • Start UP _ITEMS (4)
      • 레트로 (1)
      • 읭? (3)
      • ITEM_Details (0)

검색 레이어

WHY NOT? M CAN DO

검색 영역

컨텐츠 검색

패스트 캠퍼스[데이터분석 강의]/BeautifulSoup

  • 패스트 캠퍼스[데이터분석 강의] _반복문으로 일별종가 / pandas로 구현

    2024.07.16 by mcando

  • 패스트 캠퍼스[데이터분석 강의] _F12URL, request, response, parsing

    2024.07.04 by mcando

  • 패스트 캠퍼스[데이터분석 강의] _웹데이터 수집(크롤링, HTML,파인드함수)

    2024.07.04 by mcando

패스트 캠퍼스[데이터분석 강의] _반복문으로 일별종가 / pandas로 구현

>> 200일 동안의 일별 종가 정보 가져오는 반복문 구현 >> 반복문 코드 설명 1) 200일 일별 종가 정보는 1 Page 당 10일의 일별 종가 정보 담겨있어서 20 Page 필요2) 일별 종가 담긴 URL과 Header 정보로 requests.get 함수 구현3) 요청한 HTML 문서를 회신하여 response 변수에 저장4) BeautifulSoup함수로 HTML을 읽을 수 있도록 파싱하여 soup 변수에 저장5) Page 개수만큼 20번 반복    "tr" 태그 조건에 해당하는 모든 정보를 검색하여 parsing_list 변수에 저장6) 1 Page 당 10일의 일별 종가 정보 담겨있어서 10번 반복     "td" 태그의 align가 "center"인 값들 중 0번째 조건에 해당하는 정보 검..

패스트 캠퍼스[데이터분석 강의]/BeautifulSoup 2024. 7. 16. 13:39

패스트 캠퍼스[데이터분석 강의] _F12URL, request, response, parsing

*웹 크롤링 3단계: request - 웹페이지의 URL이용해서 HTML 문서를 요청 : response - 요청한 HTML 문서를 회신: parsing - 태그 기반으로 파싱 (일련의 문자열을 의미있는 단위로 분해)  * BeautifulSoup F12(개발자도구) URL 찾기1. 네이버 금융 홈페이지 접속2. 삼성전자 검색3. 시세 메뉴 클릭후 URL 확인 4. 키보드 F12(개발자도구) 클릭 > 메뉴 Elements 클릭 > 키보드 Ctrl과 F(검색 단축기) 클릭 > '일별시세'검색 >src값 복사  * request  : URL 저장 - stock_url이라는 변수에 네이버 금융 사이트의 삼성전자 시세 정보가 담긴 URL저장: user-agent설정 - headers에 user-agent값 저장..

패스트 캠퍼스[데이터분석 강의]/BeautifulSoup 2024. 7. 4. 11:32

패스트 캠퍼스[데이터분석 강의] _웹데이터 수집(크롤링, HTML,파인드함수)

*웹 크롤링?: 인터넷 상에 존재하는 데이터를 자동으로 수집하는 행위 : Request  라이브러리-  웹페이지 정보 가져오기: BeautifulSoup 라이브러리 -  HTML 소스를 파싱(분석) 하여 원하는 정보 얻기  1. 사용자는 브라우저로 접속하고 싶은 주소(url)입력2. 브라우저가 해당주소의 서버에게 "페이지 구성정보를 줘"라고 요청 (request)3. 웹서버는 구성에 필요한 정보를 코드(html)형태로 전달(response)4. 브라우저는 서버가 전달 준 정보(html)를 해석해서 사용자 화면에 보여줌  *  beautifulsoup4 - HTML은 태그로 이루어져 있고, 수많은 공백과 변화하는 소스들 때문에 오류가 있을 가능성이 높지만      beautifulsoup4을 이용하면 이러..

패스트 캠퍼스[데이터분석 강의]/BeautifulSoup 2024. 7. 4. 11:03

추가 정보

인기글

최신글

페이징

이전
1
다음
TISTORY
WHY NOT? M CAN DO © Magazine Lab
페이스북 트위터 인스타그램 유투브 메일

티스토리툴바