feF0Vxya38phoLdrSAciODCY6JzRZtqI







 

1. 2020년 3월 22일부터 시작되는 파이썬 쌩기초와 함께 배우는 웹크롤러 & 업무자동화 4주 단기완성이 오픈했습니다! 

   

2. 강남역 6분거리 강의실에서 매주 일요일 1시 부터 3시간 동안 진행됩니다!

     

3. 직장에서 자주 사용하는 데이터 수집, 정리, 분석 과정을 전부 자동화해볼 수 있는 크롤러와 프로그램을 만들어보며 파이썬을 배우게 됩니다. 

 

 

더 자세한 커리큘럼 & 소개는 codingapple.com


 

 

 

 

 

 

 

 

 

 

 

Ey87POCbXiHxZFTtavmGsUW4hYz5uQdN 





수강해야할 이유 1. 이제 파이썬으로 취준하는 시대입니다. 

 

작년 삼성전자 경영지원직무 면접 질문이 화제가 되었는데, 

문과생들에게 "파이썬 할줄 아냐" 라고 가차없이 물어봤다고 합니다. 

 

회사 모든 분야에서 데이터에 의한 의사결정이 많아지다보니 

그만큼 데이터 분석도구인 파이썬 또한 실무에 많이 투입되고 있습니다. 

 

 

 

10년 전엔 엑셀,PPT가 직장인의 기본소양이었지만

이젠 포토샵, 파이썬이 기본 소양인 시대가 다가오고 있습니다. 

 

"부장님 파이썬도 못해서 엑셀한대 소근소근" 이라는 말을 듣기 싫다면 

어서 빨리 배워가서 마케팅, 영업, 운영, RnD 업무에 내가만든 파이썬 프로그램들을 활용해보세요! 

 

 

 

 

 

 

 

 

GA2slYSxDKePbJFO9IpHE7Wo1nMLkTa5 

 

 

 

수강해야할 이유 2. 업무자동화를 꿈꾸는 직장인들의 필수코스!

 

직접 엑셀에 수기로 자료입력하면서 일 하시던 분들의 필수 강좌!

데이터 다루다보면 엑셀의 if, vlookup 함수들 만으로 자동화할 수 없는 부분이 많으시죠?

크롤러 만드는 법을 배워 데이터 수집, 정리업무가 필요한 곳에 빨리 활용해보세요!

 

이번 강의에서 배울 크롤러와 업무자동화 스킬을 이용하면 

 

- 웹사이트 자동 방문 및 자료 자동수집

- 웹사이트의 실시간으로 값이 변하는 상황 감지 및 알림

- 이메일 보내기, 전달, 다운로드 업무 자동화

- 자동 카페, 블로그 글발행

- 분석을 위한 데이터 정규화, 전처리 자동화 

- 엑셀 파일 생성, 합치기, 저장

- 기타 업무 자동화

 

등이 가능합니다! 

 

데이터 수집, 정리하는데 많은 시간을 쏟고계신 분들은

빨리 파이썬 자동화스킬 배워서 3시간 걸리던 자료수집 및 정리 프로세스를 10분정도로 단축시켜보도록 합시다! 

  

(이제 진짜 일하는 척 하실 수 있습니다.)

 

 

 

 

 

 

 

 

x7jV0pR8eiB3ErKuPHWhy6oMUdX4sAfF 

 

 

 

  

수강해야할 이유 3. 데이터 기반 창업을 위한 기초 기술인 웹크롤러!

 

 

- 요즘 투자유치가 핫한 OP.GG 등의 전적분석사이트

- 쇼핑몰 순위분석 스타일 닷컴

- 구글, 네이버 검색순위 최적화 서비스

- 해외직구 자동화 비즈니스

- 스트리밍 서비스

- 데이터분석 기반 추천 서비스

- 전자정부 API를 이용한 공적 마스크 재고알림 서비스  

 

전부 웹크롤러를 필수로 이용합니다. 

 

데이터를 활용해 가치를 창출해내는 회사라면 가장 중요하게 관리하는 것이 바로 데이터 수집/정리 크롤러입니다. 

우리가 만들어볼 웹크롤러도 실제 창업용으로도 아주 손색이 없는 확장성있는 크롤러를 만들어보게 될거에요!

 

 

실제 크롤러를 기반으로 추천서비스 창업 + 투자유치를 진행해보셨던 선생님이 수업 이끌어주십니다!  

 

 

 

 

 

 커리큘럼

1주차: 데이터수집 자동화1 - 암호화폐 거래소 데이터 수집

  - 캔들 차트 분석

  - 서버 API에 데이터 요청해보기

  - 차트 데이터 수집하는 방법 분석

  - json 데이터 수집방법

  - 원하는 코인의 차트 데이터 수집



2주차: 데이터수집 자동화2 - 네이버 주식 데이터 수집

  - 사이트 분석

  - html 데이터 분석하는 방법

  - html에서 필요한 데이터 수집하는 방법

  - 시간별 시세 수집

  - 호가, 주요시세 수집



3주차: 데이터 전처리 및 시각화 

  - pandas를 활용하여 excel, csv 파일로 분산저장

  - 데이터 가공(전처리)/분석

  - 데이터 시각화

  - 데이터 가공할 떄 중요사항 



4주차: Selenium을 활용하여 네이버 블로그 글쓰기

  - 웹 드라이버 설치

  - Selenium으로 네이버 접속하기

  - 자동 로그인 방지를 위해 로그인 우회방법 

  - 네이버. 블로그 분석 및 포스팅 자동화

 

 

 

 

 

더 자세한 커리큘럼 & 소개는 codingapple.com