일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- 데이터분석
- 생성자 #자바 #기록남기기
- fastapi
- 컬럼수정
- MVC #디자인패턴
- SQL
- 단축키정리
- 클래스 #아이디
- 스프링부트
- SafeUpdate
- 캐글
- C언어 #문자열변환 #정수형변환
- home credit default risk
- 김영한 #SOLID #객체지향
- 기술블로그
- 웹 크롤링
- 작업 영역
- 에러포스팅
- 머신러닝 #학습내용정리
- 개발공부
- 스프링 입문
- Numpy #TIL #넘파이 기초
- 크롬브라우저
- 머신러닝 #회귀 #규제
- 파이썬
- 개발자가 되기 위해 꼭 알아야 하는 IT용어
- 공부내용정리
- 옵셔널태그
- GIT
- 커밋
- Today
- Total
목록2025/01 (3)
데이터 분석가 몽구리

오늘은 캐글데이터셋 중에서 Home Credit Default Risk 주제를 통해 캐글에 Submit한 뒤, 점수를 확인하는 작업을 진행해보겠습니다.feature engineering에 대해서는 간략하게 진행한 뒤, 일단 빠르게 모델을 설계하여 제출을 한 뒤에 하이퍼파라미터 튜닝, feature engineering 등의 작업을 진행해보도록 하겠습니다.1. 해결하고자 하는 과제해당 대회에서 해결하고자 하는 문제는 아래 있는 링크로 들어가 Description을 확인하면 전체적인 대회에 대한 설명을 볼 수 있습니다.https://www.kaggle.com/competitions/home-credit-default-risk/overviewapplication_{train|test}.csv고객 정보와 현재 ..

FastAPI를 이해하기 위해서는 웹 생태계의 발전과정에 대해 이해하고 있어야 합니다. 웹의 발전 과정은 1~4세대로 구분하여 이해할 수 있습니다.1세대: 정적 웹 서비스 - HTML/CSS 로 만들어진 파일을 서버에 제공2세대: 동적 웹 서비스 - CGI와 데이터베이스를 사용하여 사용자 요청에 따른 페이지를 동적으로 생성3세대: MVC 프레임워크 - 모델(Model), 뷰(View), 컨트롤러(Controller)로 코드 구조화4세대: API 중심 서비스 - 마이크로 서비스 아키텍처(MSA)를 통해 다양한 플랫폼 지원마이크로 프레임워크의 특징풀스택 프레임워크와 대비되는 개념으로, 필수 기능만 제공하여 서비스 경량화와 학습 곡선 감소장점: 빠른 개발, 선택적 기능 사용, 높은 확장성, 쉬운 문제 해결F..

데이터 분석에 있어 가장 중요한 단계 중 하나는 데이터 수집 단계일 것이다. 오늘은 python 웹 크롤링을 통해 웹에서 데이터를 수집하는 코드를 작성해보도록 하겠다. import requests from bs4 import BeautifulSoupres = requests.get('http://') // 접근하고자 하는 url 입력 soup = BeautifulSoup(res.content,'html.parser')mydata = soup.find('title') // 'title' 태그를 통해 값을 가져온다print(mydata.get_text()) 위 코드는 requests 라이브러리를 통해 웹 사이트에 접근하고 BeautifulSoup를 통해 크롤링을 진행하게 된다. soup.find를 통..