본문 바로가기

공부/Node.js7

Scraping 강의 - 과제 내용 정리 이번 강의의 과제는 나만의 미니 프로젝트였다! 진짜 미니 프로젝트라기 보단, 앞에서 해왔던 내용들과 이번 강의 내용까지 모두 넣어서 정리할 수 있는 과제였다. 회원 가입 API, 회원 목록 조회 API, 토큰 인증 요청(핸드폰 인증) API, 인증 완료 API를 만든 후 프론트엔드와 연결시키는 것이 과제였다. 백엔드 부분 (API 만들기) 진행 후 테스트 -> 과제로 요구하는 API 전체 완성 후 프론트 연결 이렇게 과제를 진행했다. 1. 백엔드 부분 (API 만들기) - 회원 가입 API 더보기 // 회원 가입 API app.post('/users', async function(req, res){ const {name, personal, phone, prefer, email, pwd} = req.bod.. 2023. 8. 20.
Scraping 이번에는 스크래핑과 브라우저 주소 창에 대하여 알아봤다. 헤헤 이번 강의는 짧아서 좋았음.. 근데 과제가 미니 프로젝트였다.. 짧은 데는 다 이유가 있는 법 Scraping 여기서 말하는 스크래핑과 크롤링은 웹 스크래핑, 웹 크롤링을 의미! Scraping(스크래핑): 웹 사이트의 페이지를 가져와 그 안에 있는 데이터를 추출하는 행위 (한 번만 진행) Cheerio 를 사용 Crawling(크롤링): 웹상의 정보들을 탐색하고 수집하는 작업. 꾸준히 데이터를 가져온다고 생각하면 된다. (꾸준히 계속 진행) Puppeteer 을 사용 그럼 어떻게 가져올까? 웹 사이트의 HTML 파일을 받아올 수 있다면 우리가 원하는 데이터를 가져올 수 있다! 그렇다면, HTML 파일을 어떻게 가져올 수 있을까? -> 브라우.. 2023. 8. 19.
Docker 이 부분은 진짜 제정신 아닌 상태로 써서 그런지.. 제대로 정리도 안 되어있다.. 나중에 다시 공부할 때 여기 꼭 수정하고 해야겠음 수업 필기 1 - 도커 설치 운영체제에 따라 달라지는 환경 맥북에서는 되는데 윈도우에서는 안됨 등등.. 방법1: 컴퓨터 안에 또 다른 컴퓨터를 깔아보자! (가상 환경, VMWare) 옛날, 도커가 나오기 전 쓰던 방법 겁나 느림 도커: 부팅 등 운영체제의 핵심 기능(커널)을 공유하는 가상머신 빠르고 가벼운 가상머신 OS 전체를 새로 설치하지 않아도 된다. 느리지 않고 가볍게 만들어보자..! 하고 만듦 커널(공통 기능, 핵심 기능 등)을 같이 쓰기로 함 → 가상머신이 빨라지고 가벼워졌다! 윈도우 그냥은 안됨 (맥 → 코어가 리눅스와 같음, 리눅스 → 리눅스임 하지만.. 윈도우.. 2023. 8. 19.
기초 API 구현 미루고 미루다 이제야 쓰게 되었다.... 이번 섹션은 기초 API 구현이었는데, Express 기초, 서버와 포트, Nodemon 적용 및 REST API, GRAPHQL API를 만들었으며, coolsms를 이용하여 인증 번호 전송 API, nodemailer를 이용하여 가입 환영 이메일 전송 API를 만드는 것으로 섹션3(22)가 끝이났다. 1. Express 기초 - Express Docs Express를 이용하여 node.js 프로그램을 만들어보았다. 여기에서는 Express를 다루는 법 또한 중요하지만 주로 npm에 대해 필기를 했다. package package.json dependencies ← 설치했던 파일 (히스토리 목록) yarn init 등을 통해 만들어주어야 함 (npm 설치를 위해.. 2023. 8. 19.