목록분류 전체보기 (57)
열심히 코딩 하숭!
https://www.acmicpc.net/problem/1725 1725번: 히스토그램 첫 행에는 N (1 ≤ N ≤ 100,000) 이 주어진다. N은 히스토그램의 가로 칸의 수이다. 다음 N 행에 걸쳐 각 칸의 높이가 왼쪽에서부터 차례대로 주어진다. 각 칸의 높이는 1,000,000,000보다 작거나 같은 www.acmicpc.net > 주어진 히스토그램에 대해, 가장 큰 직사각형의 넓이를 구하는 문제이다. 간단한~ 문제라고 생각했는데, 처음에 스택을 이용해서 어떻게 풀어야 좋을지 감이 오지 않아서 풀이 방법을 찾아보고, 이해하면서 작성하였다. 풀이 해당 문제는 스택으로 풀거나 분할 정복을 이용해서 풀 수 있는데, 분할 정복은 아직 이해가 되지 않아서... 스택으로 해결하는 방법만 적어보려고 한다...
https://www.acmicpc.net/problem/9012 9012번: 괄호 괄호 문자열(Parenthesis String, PS)은 두 개의 괄호 기호인 ‘(’ 와 ‘)’ 만으로 구성되어 있는 문자열이다. 그 중에서 괄호의 모양이 바르게 구성된 문자열을 올바른 괄호 문자열(Valid PS, VPS)이라고 www.acmicpc.net 문제 간단한 스택 문제! 괄호의 짝을 찾으면 된다. '('를 만나면 stack에 1을 넣고 ')'를 만나면 넣었던 1을 빼주면 된다. 풀이 #include #include #include using namespace std; bool isPS(string str) { int str_length = str.length(); stack st; for (int i = 0;..
* 해당 글은 inflearn의 강의 '[개정판] 파이썬 머신러닝 완벽가이드'를 정리한 글입니다. 회색 - 강의 제목 노란색, 주황색 - 강조 1일 사용자 행동 인식 데이터를 이용한 결정 트리 실습 - 4장 4.2 결정트리 참고 앙상블 학습의 개요와 보팅(Voting)의 이해 앙상블 학습 - 여러 개의 분류기를 생성하고 그 예측을 결합함으로써 보다 정확한 최종 예측을 도출 - 유형: 보팅(Voting), 배깅(Baggin), 부스팅(Boosting), 스태킹(Stacking) 등 - 단일 모델의 약점을 다수의 모델들을 결합하여 보완 보팅 - 여러 개의 분류기가 투표를 통해 최종 예측 결과를 결정 1) 하드 보팅 - classifier 간 다수결로 최종 class 결정 2) 소프트 보팅 - classifi..
* 해당 글은 inflearn의 강의 '[개정판] 파이썬 머신러닝 완벽가이드'를 정리한 글입니다. 회색 - 강의 제목 노란색, 주황색 - 강조 5일 분류(Classification) 개요와 결정트리(Decision Tree) 소개 분류 알고리즘 (Classification) - 주어진 데이터의 피처와 레이블값을 학습해서 모델 생성 - 생성된 모델에 새로운 데이터 값이 주어졌을 때, 미지의 값을 예측 결정 트리 개요 - 매우 쉽고 유연하게 적용될 수 있음 - 데이터의 스케일링이나 정규화 등의 사전 가공의 영향이 적음 - 예측 성능 향상을 위해 복잡한 규칙 구조를 가져야 하며, 이로 인해 과적합(overfitting)이 발생해 반대로 예측 성능이 저하될 수도 있다는 단점이 있음 앙상블 기법 개요 - 결정 트..
* 해당 글은 inflearn의 강의 '[개정판] 파이썬 머신러닝 완벽가이드'를 정리한 글입니다. 회색 - 강의 제목 노란색, 주황색 - 강조 3일 사이킷런으로 수행하는 타이타닉 생존자 예측 타이타닉 생존자 예측 - 데이터 전처리 - Null 처리 / 불필요한 속성 제거 / 인코딩 타이타닉 생존자 예측 - 모델 학습 및 검증/예측/평가 - 결정트리, 랜덤포레스트, 로지스틱 회귀 학습 비교 - K 폴드 교차 검증 - cross_val_score()와 GridSearchCV() 수행 코드 import numpy as np import pandas as pd import matplotlib.pyplot as plt import seaborn as sns %matplotlib inline titanic_df =..
* 해당 글은 inflearn의 강의 '[개정판] 파이썬 머신러닝 완벽가이드'를 정리한 글입니다. 회색 - 강의 제목 노란색, 주황색 - 강조 1일 사이킷런 소개와 머신러닝 분류 예측 모델 개요 사이킷런(scikit-learn) - 쉽고 가장 python스러운 API를 제공함 - 머신러닝을 위한 매우 다양한 알고리즘과 개발을 위한 편리한 프레임워크, API 제공 - 주로 Numpy와 Scipy 기반 위에서 구축된 라이브러리 Feature(속성) - 데이터 세트의 일반적인 속성 - 타겟값을 제외한 나머지 속성이 모두 Feature 레이블, 클래스, 타겟(값), 결정(값) - 지도 학습 시 데이터의 학습을 위해 주어지는 정답 데이터 - 분류의 경우에는 이 결정값을 레이블 또는 클래스로 지칭 지도학습(Supe..
* 해당 글은 inflearn의 강의 '[개정판] 파이썬 머신러닝 완벽가이드'를 정리한 글입니다. 회색 - 강의 제목 노란색, 주황색 - 강조 민트색 - 발표할 때 짚고 넘어가면 좋을 것 같은 부분 1일 [0:03:04] 시각화를 시작하며 - 시각화 몰라도 너무 스트레스 받지 말자! [0:11:57] Matplotlib과 Seaborn 개요 및 비교 통계적인(statistical) 시각화 - Seaborn - 히스토그램, 바이올린 플롯, 산포도, 바차트, 분위, 상관 히트맵 중간 - Matplotlib 업무 분석(business analysis) 시각화 - Plotly - 바차트, 라인 플롯, 파이 차트, 영역 차트, 산포도, 방사형 차트, 버블 차트, 깔때기 차트 맷플롯립(Matplotlib) - 파이..
* 해당 글은 inflearn의 강의 '[개정판] 파이썬 머신러닝 완벽가이드'를 정리한 글입니다. 회색 - 강의 제목 노란색, 주황색 - 강조 민트색 - 발표할 때 짚고 넘어가면 좋을 것 같은 부분 [이전 글] 글 비밀번호 1234 https://chaesoong2.tistory.com/22 머신러닝 개념, numpy 알아보기 | 1주차 - 1 | 파이썬 머신러닝 완벽가이드 chaesoong2.tistory.com 위 글에 이어 작성합니다. 3일 [0:12:22] 판다스(Pandas) 개요와 기본 API - 01 판다스(Pandas)란? - 파이썬에서 데이터 처리를 돕는 라이브러리 - 많은 부분이 넘파이 기반으로 작성됨 - CSV 등의 파일을 쉽게 DataFrame으로 변경해 데이터 가공/분석을 편리하게..
* 해당 글은 inflearn의 강의 '[개정판] 파이썬 머신러닝 완벽가이드'를 정리한 글입니다. 회색 - 강의 제목 노란색, 주황색 - 강조 민트색 - 발표할 때 짚고 넘어가면 좋을 것 같은 부분 1일 [0:07:49] 개정판 강의 소개 실제 업무에 머신러닝이 어떻게 적용되는지 애플리케이션을 작성해 보면서 익히는게 매우 중요하다 [0:07:49] 머신러닝의 개념 Machine Learning (머신러닝) - 데이터를 기반으로 패턴을 학습하고 결과를 예측 - 숨겨진 패턴을 인지해 해결한다 - ex) 데이터마이닝, 영상 인식, 음성 인식, 자연어 처리 [0:11:45] 머신러닝의 유형과 데이터의 중요성 지도학습(Supervised Learning) - 문제(feature)와 답(target, label)을..
1. 문제 소개 >> 중간과제 때 정의했던 문제 https://chaesoong2.tistory.com/15 2022 하천 분리수거 마라톤 대회 '시뮬레이션 프로그램🏃' | Red Black Tree | 자료구조실습 중간과 네이버 블로그에 써두었던 글인데 티스토리에도 남기면 좋을 것 같아서 올리게 되었다! * 학교에서 수강 중인 22-2 '자료구조 실습' 수업의 중간 프로젝트에 대한 글이다. chaesoong2.tistory.com 간단하게 설명해보자면, 하천 분리수거 마라톤 대회가 개최된다. - 참가자들은 출발 지점부터 도착 지점까지 마라톤을 하며 하천 쓰레기를 줍게 된다. - 마라톤을 하며 하천 쓰레기를 주울 때마다 해당 쓰레기의 분리수거 종류에 해당하는 가산점을 받게 ..