본문 바로가기

분류 전체보기811

[WEB+AI] 32일차 딥러닝 GoogLeNet 딥러닝 CNN Models 강사: 이숙번님   - numpy 이해 # 리스트b1 = [1, 2, 3, 4, 5]b2 = b1 * 2print(b2)r = [e * 2 for e in b1]# b1 * 2의 결과가 모든 데이터에 2를 곱한 결과가 나오면 좋겠다.print(r)import numpy as npa1 = np.array([1, 2, 3, 4, 5])print(a1.shape)print(a1)print(a1 * 2)a1 = np.array([1, 2, 3, 4, 5])a2 = np.array([3, 4, 5, 6, 7])print(a1 + a2)C = np.array([1.5, 2.3, 3.5, 4.1, 5.5])s = np.array([0.1, 0.45, 0.7, 0.0, 0.8])print(C.. 2024. 11. 27.
[WEB+AI] 32일차 CNN Models CNN Models 강사: 이숙번님 1. CNN Models    1.1. LeNet5 - Cifar10 분류 모델import tensorflow as tf# 데이터 준비(x_train, y_train), (x_test, y_test) = tf.keras.datasets.cifar10.load_data()print(x_train.shape, y_train.shape)print(x_test.shape, y_test.shape)# 원핫인코딩y_train = tf.keras.utils.to_categorical(y_train)y_test = tf.keras.utils.to_categorical(y_test)print(x_train.shape, y_train.shape)print(x_test.shape, y_t.. 2024. 11. 26.
[WEB+AI] 31일차 딥러닝 실습 딥러닝 실습 강사: 이숙번님 1. 인공신경망 (Artificial Neural Network: ANN)  : 인간의 신경세포(뉴런)이 연결된 형태를 모방한 모델    1.1. 퍼셉트론(Perceptron)  : 1957년에 제안한 초기 형태의 인공신경망으로 다수의 입력으로부터 하나의 결과를 내보내는 알고리즘딥러닝의 기원이 되는 알고리즘 입력값과 가중치가 곱해져 전달되고, 다수의 신호를 입력받아 0 또는 1의 값을 출력  1.2. 단층 퍼셉트론(Single-Layer Perceptron)  : 입력층(Input Layer)과 출력층(Output Layer) 두 레이어로 이루어진 퍼셉트론.  - 얕은 신경망(Shallow Neural Network)   1.3. 다층 퍼셉트론(MultiLayer Percep.. 2024. 11. 25.
[WEB+AI] 30일차 딥러닝 + RNN 딥러닝 - RNN 강사: 이숙번님 1. RNN(Recurrent Neural Network) - 주가 예측 모델  : 순환 신경망은 시계열 데이터나 순차 데이터를 처리하는 데 특화된 딥러닝 모델입니다.   - RNN은 이전 시간의 정보를 현재 시간의 계산에 반영하기 위해 순환 구조를 가지며, 데이터를 순차적으로 처리하고, 과거 상태를 기억할 수 있습니다.  - 데이터 vs 순차데이터 1.1. 순차데이터(Sequential Data)sequential data - 순서가 의미가 있는 데이터temporal sequence - 시간적 의미가 있는 데이터time series - 일정한 주기가 존재하는 데이터resampling을 통해 temporal sequence를 time series로 변환할 수 있음.!pi.. 2024. 11. 22.
[WEB+AI] 29일차 딥러닝 이미지 학습 및 LeNet5 딥러닝 이미지 학습 및 LeNet5  강사: 이숙번님     1. 이미지 학습 1.1. MNIST 이미지 분류기 모델  - Flatten 사용  - beforeimport tensorflow as tfimport pandas as pd(x_train, y_train), (x_test, y_test) = tf.keras.datasets.mnist.load_data()print(x_train.shape, y_train.shape)x_train = x_train.reshape(60000, 784)# y_train = pd.get_dummies(y_train)y_train = tf.keras.utils.to_categorical(y_train) # 텐서플로우의 원핫인코딩 함수.print(x_train.shape.. 2024. 11. 21.
[WEB+AI] 28일차 딥러닝 2/2 딥러닝 강사: 이숙번님  1. Hidden Layer(은닉층)  : 입력 데이터를 다양한 방식으로 가공하고 변경해서 의미를 만들어내는 역활  - 입력과 출력 사이에 있는 중간 단계  - 단순한 입력/출력만으로는 풀 수 없는 복잡한 문제를 해결하기 위해 필요함.  - 데이터를 가공하고, 중요한 특징을 추출하며, 비선형 관계를 학습할 수 있도록 하기 위해 필요함.  - 결과적으로 더 정확하고 유연한 모델을 만들기 위해 은닉층이 필요함.   Hidden Layer - 5개의 특징(특징 자동 추출기) 예시: 고양이 사진 인식입력: 픽셀 데이터 (이미지의 숫자 값들)은닉층 역할:1번째 은닉층: "이 부분은 선처럼 보인다"를 학습.2번째 은닉층: "여기에는 둥근 모양이 있다"를 학습.3번째 은닉층: "귀, 눈, 코.. 2024. 11. 20.
[WEB+AI] 27일차 딥러닝 1/2 딥러닝 텐서플로우 강사: 이숙번님 1. 딥러닝   지도학습: 정답이 있는(종속변수가 있음) 상태에서 학습비지도학습: 정답이 없는 상태에서 학습강화학습: 환경이 있음.    1.1. 레모네이드 판매량 예측하기import pandas as pdimport tensorflow as tf# 1. 데이터를 준비합니다.레모네이드 = pd.read_csv('lemonade.csv')x_train = df[['온도']]y_train = df[['판매량']]print(x_train.shape, y_train.shape)# 2. 모델의 구조를 만듭니다.X = tf.keras.layers.Input(shape=[1])Y = tf.keras.layers.Dense(1)(X)model = tf.keras.models.Model.. 2024. 11. 19.
[WEB+AI] 26일차 Orange 3 복습 Orange 3 복습 강사: 이주화님 1. Orange 3 개요  : 오렌지3는 오픈소스로 머신러닝 및 데이터 마이닝을 위한 포괄적인 구성요소(위젯) 기반 소프트웨어 1.1. Orange 3 특징직관적 시각화 도구 제공탐색적 데이터 분석 기능 제공사용자 친화적 인터페이스 제공 1.2. 화면 구성메뉴와 위젯 켄버스로 구성위젯은 머신러닝 워크플로우를 구성하기 위한 도구로 구성캔버스는 드래그하여 위젯을 올려놓고 워크플로우를 구성 2. Orange 3 실습 2.1. 이직할 직원 예측하기  - 모델링할 데이터로 학습을 시킨 후 적용할 데이터로 예측하기.     - Confusion Matrix 및 Predictions로 결과 확인   2.2. CT 사진으로 암 진단하기  - Orange 3 - Options - .. 2024. 11. 18.
[WEB+AI] 25일차 Orange 3 통계 - Logistic Regression, Tree 모델 Orange 3 통계 - Logistic Regression, Tree 모델 강사: 이숙번님 1. Logistic Regression(로지스틱 회귀)  : 머신러닝에 분류 문제를 해결하기 위한 알고리즘이다.   - 데이터가 두 가지 범주 중 하나로 나뉘는 이진 분류(Binary Classification) 문제에 주로 사용됨      1.1. sigmoid 함수 이용  : 선형 회귀의 결과를 시그모이드 함수에 통과시켜 0과 1 사이의 값으로 변환함.    시그모이드 함수는 입력 값이 커질수록 출력이 1에 가까워지고, 작아질수록 0에 가까워지는 S자 형태의 곡선임.      - 기준 값은 일반적으로 0.5 임.   - cut-off value 를 0.8로 하면 0.8 밑으로는 0으로, 0.8 이상은 1로 .. 2024. 11. 15.
[WEB+AI] 24일차 오렌지 3 통계 3/3 오렌지 3 통계 강사: 이숙번님  1. 임베딩  : 텍스트, 이미지, 오디오 등 다양한 데이터를 컴퓨터가 이해할 수 있는 숫자 벡터로 변환하는 기술 2. Orage CA(전체 정확도) 3. KNN(k-Nearest Neighbor)  : 분류할 데이터와 주어진 데이터의 모든 거리를 계산하여 가까운 거리의 데이터를 K개 만큼 찾은 후 그 중에서 가장 빈도수가 높을 클래스로 분류해주는 방법    - 가까운 K개의 점, 다수 클래스  ⬛ 장점데이터의 분포 형태를 고려하지 않는다.설명 변수의 개수가 많아도 무리 없이 사용 가능 ⬛ 단점계산 시간이 오래 걸림훈련 데이터를 모델에 함께 저장해석하기 어려움 4. KNN 회귀  : 새로운데이터가 들어와서 Y를 예측해야 한다면, 그것과 가장 가까운 K개의 이웃을 찾고 그.. 2024. 11. 15.
[WEB+AI] 23일차 오렌지 3 통계 2/3 오렌지 3로 배우는 통계와 데이터 분석 강사: 이숙번님 "표준편차"와 "확률"   - 집단에서 하나의 값을 꺼냈을 때, 그 값이평균에서 1표준편차 사이 값일 확률. 68.2%평균에서 2표준편차 사이 값일 확률. 95.4%평균에서 3표준편차 사이 값일 확률. 99.6%  - 분포 그래프는 확률을 구하기 위한 그래프이다. 참고글: 지오지브라 그래프https://www.geogebra.org/classic#probability 1. 이항 검정(Binomial Test)  : 이산 확률 분포를 따르는 데이터를 분석하기 위해 사용하는 통계적 검정 방법입니다.    - 특정 사건이 두 가지 결과로 나뉘는 경우, 관찰된 성공 횟수가 기대값과 얼마나 다른지를 검정하는 방법  - 이항분포를 이용한 검정  - N개 중에 .. 2024. 11. 15.
[WEB+AI] 22일차 오렌지 3 통계 1/3 오렌지 3 통계 강사: 이숙번님 1. 통계의 목적: 이해와 예측  1. 기술 통계(이해) - 수집된 데이터의 요약과 설명     a. 데이터를 한 개의 대표값으로 표현하기    b. 흩어짐의 정도로 데이터 이해하기(분포)  2. 추론 통계(예측) - 기술 통계 결과를 기반으로 일반화, 예측, 추정    a. 모집단을 표본으로 추정해보기    b. 가설을 검증해가며 데이터를 파악해가기    - 기술 통계의 기초 레시피 5개    a. 평균    b. 표준편차    c. 중앙값    d. 사분위수    e. 최빈값   1.1. 평균  : 보통의 값 = "최초의 예측 모델"   - 집단을 잘 표현하는 하나의 숫자(대푯값)을 가짐.  - 집단을 비교할 수 있게 됨.   예제)대한민국 사람을 아무나 한 명 선택했.. 2024. 11. 12.
728x90