분류 전체보기 (33) 썸네일형 리스트형 파이썬 초보가 1시간 만에 만드는 자동화 프로그램 5선 파이썬을 배우고 나면 '도대체 뭘 만들어야 할까?'라는 고민이 찾아옵니다. 이럴 때 바로 시작할 수 있는 것이 일상 작업을 편리하게 만들어주는 자동화 프로그램입니다. 복잡한 기능 없이도, 파이썬 초보자가 직접 완성할 수 있는 실용적인 자동화 프로그램 5가지를 소개합니다. 1시간 안에 완성할 수 있으니 지금 바로 도전해보세요!1. 파일 이름 일괄 변경 프로그램컴퓨터를 사용하다 보면, 사진, 문서, 영상 파일 이름을 일괄적으로 정리해야 할 때가 있습니다. 수십, 수백 개의 파일을 하나하나 수동으로 바꾸는 것은 매우 비효율적입니다. 파이썬의 os 모듈을 사용하면 이 과정을 단 몇 줄의 코드로 자동화할 수 있습니다.사용 예시여행 사진 파일을 trip_001.jpg, trip_002.jpg...처럼 자동으로 정렬.. pymysql로 크롤링 데이터 실시간 저장하는 방법 웹 크롤링은 원하는 정보를 자동으로 수집하는 데 매우 유용한 기술입니다. 여기에 파이썬의 pymysql 라이브러리를 결합하면, 수집한 데이터를 실시간으로 MySQL 데이터베이스에 저장할 수 있어 자동화된 데이터 관리 시스템을 구축할 수 있습니다.이 글에서는 requests와 BeautifulSoup으로 웹 데이터를 수집하고, pymysql로 해당 데이터를 MySQL 테이블에 저장하는 실전 예제를 소개합니다.사용 기술 소개requests: 웹 페이지 요청을 보내 HTML 데이터를 가져옴BeautifulSoup: HTML 파싱을 통해 원하는 데이터를 추출pymysql: 파이썬에서 MySQL 데이터베이스 연동 및 쿼리 실행라이브러리 설치pip install pymysql requests beautifulsou.. MySQL 쿼리 결과를 엑셀로 저장하는 자동화 스크립트 만들기 업무에서 자주 사용하는 MySQL 데이터를 수시로 엑셀로 추출해야 할 때, 매번 쿼리 실행 후 복사·붙여넣기하는 수작업은 번거롭고 실수가 생기기 쉽습니다. 파이썬의 pymysql과 pandas, openpyxl 라이브러리를 활용하면, 쿼리 결과를 자동으로 엑셀 파일로 저장하는 스크립트를 손쉽게 만들 수 있습니다.사용 기술 및 라이브러리pymysql: 파이썬에서 MySQL 데이터베이스에 접속하고 쿼리를 실행하는 라이브러리pandas: SQL 결과를 데이터프레임 형태로 다루기 위한 데이터 처리 라이브러리openpyxl: 엑셀(.xlsx) 파일로 저장하기 위한 라이브러리라이브러리 설치pip install pymysql pandas openpyxl예제: 회원 목록을 엑셀로 저장하는 스크립트아래는 MySQL에 저.. PySimpleGUI로 크롤링 결과 실시간 보여주기 파이썬을 활용한 웹 크롤링은 데이터 수집 자동화에 매우 유용한 기술입니다. 하지만 일반적으로 터미널이나 콘솔을 통해 실행되는 경우가 많아, 사용자가 직접 실행하고 결과를 보기에는 다소 불편할 수 있습니다. 이럴 때 PySimpleGUI를 활용하면 간단한 그래픽 사용자 인터페이스(GUI)를 통해 웹 크롤링 결과를 실시간으로 확인할 수 있는 프로그램을 쉽게 만들 수 있습니다.PySimpleGUI란?PySimpleGUI는 파이썬에서 GUI를 쉽고 빠르게 만들 수 있도록 도와주는 경량 라이브러리입니다. Tkinter, Qt, WxPython 등 여러 GUI 백엔드를 감싸고 있으며, 복잡한 코드 없이도 GUI를 구축할 수 있는 것이 장점입니다.특히 PySimpleGUI는 웹 크롤링처럼 간단한 입력과 출력을 반복하.. Tkinter vs PyQt vs Kivy|파이썬 GUI 툴킷 3종 비교 분석 파이썬은 다양한 용도로 활용되는 강력한 언어이며, 그중에서도 GUI(Graphical User Interface)를 쉽게 만들 수 있는 다양한 라이브러리를 제공합니다. 그중에서도 특히 많이 사용되는 세 가지 툴킷은 Tkinter, PyQt, Kivy입니다. 이 글에서는 각 GUI 툴킷의 특징과 장단점을 비교하고, 상황에 맞는 선택 기준을 제안해드립니다.1. Tkinter – 기본에 충실한 표준 GUITkinter는 파이썬에 기본으로 포함된 GUI 라이브러리입니다. 별도 설치 없이 바로 사용할 수 있으며, 가벼운 앱이나 간단한 유틸리티 제작에 매우 적합합니다.장점파이썬에 내장되어 있어 설치가 불필요함간단한 문법으로 빠르게 GUI를 구성할 수 있음학습 자료가 풍부하고 입문자에게 적합함단점디자인이 고전적이고 .. 셀레니움으로 동적 웹페이지 크롤링하는 법 (자바스크립트 렌더링 대응) 파이썬으로 웹 데이터를 수집할 때 가장 자주 마주치는 문제 중 하나는 동적 웹페이지 크롤링입니다. 일반적인 웹사이트는 requests + BeautifulSoup 만으로도 충분하지만, 자바스크립트로 렌더링되는 사이트는 그렇지 않습니다. 예를 들어, 스크롤을 내려야 내용이 보이거나 버튼을 눌러야 리스트가 나오는 사이트는 셀레니움(Selenium)이 필요합니다.이번 글에서는 Selenium을 활용한 동적 웹페이지 크롤링 방법과 함께 실제 사용 예제, 주의할 점까지 전부 소개합니다.왜 Selenium이 필요한가?기본적인 웹크롤링 도구인 requests는 HTML 문서만 받아오며 자바스크립트를 실행하지 않습니다. 반면 다음과 같은 경우는 셀레니움이 필요합니다:콘텐츠가 JS로 렌더링됨 (ex. SPA 사이트)버튼.. 파이썬 웹크롤링 완전 입문 가이드|BeautifulSoup 기본 사용법 웹에서 원하는 정보를 자동으로 수집하고 싶다면 웹크롤링이 정답입니다. 특히 파이썬은 다양한 라이브러리를 통해 쉽게 웹 데이터를 수집할 수 있어 초보자에게도 매우 적합한 언어입니다. 그중에서도 가장 많이 사용되는 도구가 바로 BeautifulSoup입니다.이 글에서는 BeautifulSoup을 이용한 웹스크래핑의 기본 개념부터 실습까지 초보자도 쉽게 따라할 수 있도록 자세히 설명합니다.웹크롤링 vs 웹스크래핑, 뭐가 다를까?많은 분들이 혼동하는 개념 중 하나입니다. 간단하게 정리하면:웹크롤링(Web Crawling): 여러 페이지를 자동으로 탐색하며 링크를 수집하는 과정웹스크래핑(Web Scraping): 특정 웹페이지에서 원하는 데이터를 추출하는 과정즉, 웹크롤링은 데이터를 ‘찾는’ 과정이고, 웹스크래핑.. Selenium 요소 찾기: XPath와 Selector 차이 및 활용법 총정리 웹 자동화와 크롤링을 위해 널리 사용되는 Python Selenium에서 가장 핵심적인 기능 중 하나는 바로 ‘요소(Element) 찾기’입니다. Selenium은 브라우저에서 HTML 요소를 식별해 클릭하거나 텍스트를 추출하는 방식으로 동작하는데, 이때 주로 사용하는 두 가지 선택자가 바로 XPath와 CSS Selector입니다. 두 방식은 문법, 성능, 가독성 등에서 차이가 있으며, 상황에 따라 적절히 조합해 사용하면 안정적이고 효율적인 자동화를 구현할 수 있습니다.XPath란 무엇인가?XPath(XML Path Language)는 XML 문서 내 요소를 탐색하기 위해 설계된 경로 언어로, HTML도 XML 계열 문법이므로 동일하게 적용할 수 있습니다.문법 특징: 슬래시(/)를 이용해 계층 구조를 .. 이전 1 2 3 4 5 다음