-
Notifications
You must be signed in to change notification settings - Fork 0
/
Copy pathtreinar_modelo.py
70 lines (56 loc) · 2.23 KB
/
treinar_modelo.py
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
import cv2
import os
import numpy as np
import pickle
from imutils import paths
from sklearn.preprocessing import LabelBinarizer
from sklearn.model_selection import train_test_split
from keras.models import Sequential
from keras.layers.convolutional import Conv2D, MaxPooling2D
from keras.layers.core import Flatten, Dense
from helpers import resize_to_fit
dados = []
rotulos = []
pasta_base_imagens = "base_letras"
imagens = paths.list_images(pasta_base_imagens)
for arquivo in imagens:
rotulo = arquivo.split(os.path.sep)[-2]
imagem = cv2.imread(arquivo)
imagem = cv2.cvtColor(imagem, cv2.COLOR_BGR2GRAY)
# padronizar a imagem em 20x20
imagem = resize_to_fit(imagem, 20, 20)
# adicionar uma dimes para o Keras pode ler a imagem
imagem = np.expand_dims(imagem, axis=2)
# adicionar às listas de dados e rótulos
rotulos.append(rotulo)
dados.append(imagem)
dados = np.array(dados, dtype="float") / 255
rotulos = np.array(rotulos)
# separação em dados de treino (75%) e dados de teste (25%)
(X_train, X_test, Y_train, Y_test) = train_test_split(dados, rotulos, test_size=0.25, random_state=0)
# Converter com one-hot encoding
lb = LabelBinarizer().fit(Y_train)
Y_train = lb.transform(Y_train)
Y_test = lb.transform(Y_test)
# salvar o labelbinarizer em um arquivo com o pickle
with open('rotulos_modelo.dat', 'wb') as arquivo_pickle:
pickle.dump(lb, arquivo_pickle)
# criar e treinar a inteligência artificial
modelo = Sequential()
# criar as camadas da rede neural
modelo.add(Conv2D(20, (5, 5), padding="same", input_shape=(20, 20, 1), activation="relu"))
modelo.add(MaxPooling2D(pool_size=(2, 2), strides=(2, 2)))
# criar a 2ª camada
modelo.add(Conv2D(50, (5, 5), padding="same", activation="relu"))
modelo.add(MaxPooling2D(pool_size=(2, 2), strides=(2, 2)))
# mais uma camada
modelo.add(Flatten())
modelo.add(Dense(500, activation="relu"))
# camada de saída
modelo.add(Dense(26, activation="softmax"))
# compilar todas as camadas
modelo.compile(loss="categorical_crossentropy", optimizer="adam", metrics=["accuracy"])
# treinar a inteligência artificial
modelo.fit(X_train, Y_train, validation_data=(X_test, Y_test), batch_size=26, epochs=10, verbose=1)
# salvar o modelo em um arquivo
modelo.save("modelo_treinado.hdf5")