일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | |
7 | 8 | 9 | 10 | 11 | 12 | 13 |
14 | 15 | 16 | 17 | 18 | 19 | 20 |
21 | 22 | 23 | 24 | 25 | 26 | 27 |
28 | 29 | 30 | 31 |
- 자바독학
- 모의 주식
- 주가예측
- SNS
- 사물인터넷
- 자바
- 백준
- java정리
- Reflex
- 빅데이터
- 코스닥
- 자바정리
- backend
- C++
- 개발
- frontend
- 프로그래머스
- 풀스택프레임워크
- 프로그램
- 코딩
- 코딩독학
- 코테
- 프로그래밍
- 개발자
- 이웃한 칸
- Project
- 개인프로젝트
- 코딩테스트
- java
- Python
- Today
- Total
목록코딩 study/python (32)
Creative Code
※cmd 에서 pip install selenium 명령어로 selenium 먼저 설치하기 # BeautifulSoup 및 requests 라이브러리 가져오기 from bs4 import BeautifulSoup import requests # 스타벅스 매장 위치 검색 페이지 URL 설정 url = 'https://www.starbucks.co.kr/store/store_map.do?disp=quick' # requests를 사용하여 웹 페이지 내용을 가져와서 텍스트로 저장 res = requests.get(url).text # BeautifulSoup으로 웹 페이지 파싱 soup = BeautifulSoup(res, 'html.parser') # 특정 CSS 선택자를 사용하여 웹 페이지에서 요소 선택 ..
import requests from bs4 import BeautifulSoup # 네이버 금융 환율 정보 페이지 URL url = 'https://finance.naver.com/marketindex/exchangeList.naver' # 웹 페이지 내용을 가져옴 result = requests.get(url).text # BeautifulSoup을 사용하여 HTML 파싱 soup = BeautifulSoup(result, 'html.parser') # 환율 정보를 저장할 리스트 초기화 name = [] # 환율의 국가명을 저장할 리스트 price = [] # 환율 가격을 저장할 리스트 # 환율 국가명 추출 data = soup.select('td.tit > a') for item in data: n..
from bs4 import BeautifulSoup import requests import os from urllib import request # HTML 문서 예시 html_doc = """ The Dormouse's story Once upon a time there were three little sisters; and their names were Elsie, Lacie and Tillie; and they lived at the bottom of a well. ... """ # BeautifulSoup으로 HTML 파싱 soup = BeautifulSoup(html_doc, 'html.parser') # 'soup' 객체를 사용하여 HTML 문서를 파싱하고 원하는 정보를 추출합니다. pri..
※urllib라이브러리 사용 from urllib import request, parse query = input('검색어 >>>') url = 'https://search.naver.com/search.naver?' # 검색 파라미터 설정 values = { 'where': 'nexearch', # 검색 카테고리: 통합검색 'sm': 'top_hty', # 검색 정렬 방식: 인기순 'fbm': 0, # 검색 옵션 (0으로 설정) 'ie': 'utf8', # 입력 인코딩 방식: UTF-8 'query': query # 검색어 } # 검색 파라미터를 URL 형식으로 인코딩 querystring = parse.urlencode(values) full_url = url + querystring try: # N..
# urllib 모듈에서 request 함수를 가져옵니다. from urllib import request # json 모듈을 가져옵니다. import json # 첫 번째 URL을 설정합니다. url = 'https://www.naver.com' # URL을 열고 해당 페이지의 내용을 읽어 옵니다. result = request.urlopen(url).read().decode('utf8') # 결과를 출력합니다. print(result) # 결과의 데이터 타입을 출력합니다. print(type(result)) # 두 번째 URL을 설정합니다. url = 'https://api.github.com/events' # URL을 열고 해당 페이지의 내용을 읽어 옵니다. result = request.urlop..
# urllib 모듈에서 request 함수를 가져옵니다. from urllib import request # os 모듈을 가져옵니다. import os # 다운로드할 파일의 URL을 변수에 할당합니다. url = '여기에_다운로드할_파일의_URL을_입력하세요' # 파일을 다운로드할 디렉토리 경로를 설정합니다. path = os.path.dirname(__file__) + '/down/' # 만약 디렉토리가 존재하지 않으면, 디렉토리를 생성합니다. if not os.path.exists(path): os.makedirs(path) # 다운로드한 파일의 로컬 파일명을 생성합니다. filename = path + url.split('/')[-1] # URL로부터 파일을 다운로드하여 로컬에 저장합니다. req..