1. XOR 문제의 해결 import numpy as np from sklearn.linear_model import Perceptron from sklearn.svm import SVC, SVR, LinearSVC, LinearSVR from sklearn.metrics import accuracy_score from keras.models import Sequential from keras.layers import Dense #1. 데이터 # MLP모델 구성하여 ACC=1.0 만들기 x_data = [[0,0], [0,1], [1,0], [1,1]] y_data = [0, 1, 1, 0] #2. 모델 model = Sequential() model.add(Dense(32, input_dim=2)) m..
1. Tokenizer [설명] Tokenizer는 자연어 처리에서 텍스트를 분석할 수 있는 형태, 주로 '토큰(token)'이라는 단위로 분리하는 작업을 수행하는 도구입니다. '토큰'은 문맥에 따라 다르지만, 대부분의 경우 단어, 문장, 문단 등을 의미합니다. 토큰화의 주 목적은 원시 텍스트 데이터를 머신러닝 알고리즘이 처리할 수 있는 구조로 변환하는 것입니다. [코드] from keras.preprocessing.text import Tokenizer text = '나는 진짜 매우 매우 매우 매우 맛있는 밥을 엄청 많이 많이 많이 먹어서 매우 배가 부르다.' token = Tokenizer() token.fit_on_texts([text]) # fit on 하면서 index 생성됨 index = to..