일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- 생성자 #자바 #기록남기기
- COMMIT
- 개발자가 되기 위해 꼭 알아야 하는 IT용어
- C언어 #문자열변환 #정수형변환
- 스프링 입문
- 머신러닝 #학습내용정리
- 머신러닝 #회귀 #규제
- 컬럼수정
- 스프링부트
- GIT
- 개발공부
- 커밋
- fastapi
- 그룹핑
- 기술블로그
- 작업 영역
- 옵셔널태그
- 김영한 #SOLID #객체지향
- 에러포스팅
- SafeUpdate
- 파이썬
- 클래스 #아이디
- Numpy #TIL #넘파이 기초
- 웹 크롤링
- 데이터 수집
- 크롬브라우저
- 단축키정리
- MVC #디자인패턴
- 공부내용정리
- SQL
- Today
- Total
목록전체 글 (88)
데이터 분석가 몽구리
FastAPI를 이해하기 위해서는 웹 생태계의 발전과정에 대해 이해하고 있어야 합니다. 웹의 발전 과정은 1~4세대로 구분하여 이해할 수 있습니다.1세대: 정적 웹 서비스 - HTML/CSS 로 만들어진 파일을 서버에 제공2세대: 동적 웹 서비스 - CGI와 데이터베이스를 사용하여 사용자 요청에 따른 페이지를 동적으로 생성3세대: MVC 프레임워크 - 모델(Model), 뷰(View), 컨트롤러(Controller)로 코드 구조화4세대: API 중심 서비스 - 마이크로 서비스 아키텍처(MSA)를 통해 다양한 플랫폼 지원마이크로 프레임워크의 특징풀스택 프레임워크와 대비되는 개념으로, 필수 기능만 제공하여 서비스 경량화와 학습 곡선 감소장점: 빠른 개발, 선택적 기능 사용, 높은 확장성, 쉬운 문제 해결F..
데이터 분석에 있어 가장 중요한 단계 중 하나는 데이터 수집 단계일 것이다. 오늘은 python 웹 크롤링을 통해 웹에서 데이터를 수집하는 코드를 작성해보도록 하겠다. import requests from bs4 import BeautifulSoupres = requests.get('http://') // 접근하고자 하는 url 입력 soup = BeautifulSoup(res.content,'html.parser')mydata = soup.find('title') // 'title' 태그를 통해 값을 가져온다print(mydata.get_text()) 위 코드는 requests 라이브러리를 통해 웹 사이트에 접근하고 BeautifulSoup를 통해 크롤링을 진행하게 된다. soup.find를 통..
문자열 상수 구현 방법문자열을 char 배열 형태로 따로 보관하고 문자열 상수가 있던 곳에는 배열의 위치 값을 사용합니다. #include int main(void){ printf("apple이 저장된 시작 주소 값: %p\n", "apple"); // 주소 값 출력 printf("두 번째 문자의 주소 값: %p\n", "apple" + 1); // 주소 값 출력 printf("첫 번째 문자: %c\n", *"apple"); // 간접 참조 연산 printf("두 번째 문자: %c\n", *("apple" + 1)); // 포인터 연산식 printf("배열로 표현한 세 번째 문자 : %c\n", "apple"[2]); return 0;}
문자열 상수 구현 방법문자열은 크기가 일정하지 않습니다. 컴파일 과정에서 문자열을 char 배열 형태로 따로 보관하고 문자열 상수가 있던 곳에는 배열의 위치 값을 사용합니다. #include int main(void){ printf("apple이 저장된 시작 주소 값: %p\n", "apple"); //주소 값 출력 printf("두 번째 문자의 주소 값: %p\n", "apple" + 1); printf("첫 번째 문자: %c\n", *"apple"); // 간접 참조 연산 printf("첫 번째 문자: %c\n", *("apple" + 1)); printf("배열로 표현한 세 번째 문자: %c\n", "apple"[2]); // 배열 표현식 return 0;}char..
Git은 내부적으로 3가지 종류의 작업 영역을 통해 동작합니다. working directorystaging arearepository먼저, working directory는 작업을 하는 프로젝트 디렉토리를 의미합니다.staging area는 git add를 한 파일들이 존재하는 영역입니다. 커밋을 하게 되면 staging area에 있는 파일들만 커밋에 반영합니다.마지막 repository는 커밋들이 저장되는 영역입니다. 해당 내용들을 풀어서 생각해 보면,working directory에서 작업하기 -> 작업한 파일들 git add 하면 staging area에 영역으로 -> 커밋을 하게 되면 staging area에 있던 파일들이 repository에 저장이미지 출처 : 코드잇
JupyterNotebook에서 구글 드라이브를 연동하여 사용하는 방법에 대해 알아보도록 하겠습니다.1. cmd 명령 프롬포트를 관리자권한으로 실행해줍니다. 2. 현재 jupyternotebook경로를 "cd 경로"를 통해 경로를 잡아줍니다. 3. mklink /j "C드라이브 경로" "G:\" 를 실행하면 "교차점을 만들었습니다" 문구가 뜨게 되고, JupyterNotebook에 Google Drive가 있는 것을 확인할 수 있습니다.
데이터프레임에서 결측값을 찾는 방법에 대해 알아보도록 하겠습니다.airbnb_df = pd.read_csv('data/airbnb.csv')airbnb_df일단 데이터를 불러옵니다.airbnb_df.info()info() 메서드를 통해서 해당 데이터프레임의 대략적인 정보를 확인할 수 있습니다.총 713개의 행이 존재하며, rating 컬럼의 13개의 결측값이 있다는 것을 확인할 수 있습니다.airbnb_df.isna().sum()boolean인덱싱을 통해 False값은 0으로 True값은 1로 계산하여 rating 컬럼의 13개가 있다는 것을 확인할 수 있습니다.airbnb_df.isna().any(axis=1)위 코드를 통해 각 행마다 결측값이 존재한다면 True값을, 존재하지 않는다면 False값이 ..