Articles of aprendizaje automático

Aproximación de la función con la neural network

Estoy tratando de aproximar la función sine () usando una neural network que yo misma escribí. He probado mi neural network en un problema simple de OCR y funcionó, pero estoy teniendo problemas para aplicarla a Sine () aproximado. Mi problema es que durante el entrenamiento mi error converge exactamente en el 50%, así que […]

¿Por qué una encoding en caliente mejora el rendimiento del aprendizaje automático?

Me di cuenta de que cuando la encoding One Hot se usa en un conjunto de datos particular (una matriz) y se utiliza como datos de entrenamiento para algoritmos de aprendizaje, ofrece resultados significativamente mejores con respecto a la precisión de predicción, en comparación con el uso de la matriz original como datos de entrenamiento. […]

Reentrenamiento después de la validación cruzada con libsvm

Sé que la validación cruzada se usa para seleccionar buenos parámetros. Después de encontrarlos, necesito volver a entrenar toda la información sin la opción -v. Pero el problema que enfrento es que después de entrenar con la opción -v, obtengo la precisión de validación cruzada (por ejemplo, 85%). No hay modelo y no puedo ver […]

architecture de perceptrón multicapa (MLP): ¿criterios para elegir el número de capas ocultas y el tamaño de la capa oculta?

Si tenemos 10 vectores propios, entonces podemos tener 10 nodos neuronales en la capa de entrada. Si tenemos 5 clases de salida, entonces podemos tener 5 nodos en la capa de salida. Pero ¿cuál es el criterio para elegir el número de capa oculta en un MLP y cuántos neuronales nodos en 1 capa oculta?

Algoritmo de aprendizaje de Perceptron que no converge a 0

Aquí está mi implementación de perceptron en ANSI C: #include #include #include float randomFloat() { srand(time(NULL)); float r = (float)rand() / (float)RAND_MAX; return r; } int calculateOutput(float weights[], float x, float y) { float sum = x * weights[0] + y * weights[1]; return (sum >= 0) ? 1 : -1; } int main(int argc, […]

¿Existe una regla de oro sobre cómo dividir un conjunto de datos en conjuntos de entrenamiento y validación?

¿Existe una regla de oro sobre cómo dividir mejor los datos en conjuntos de entrenamiento y validación? ¿Es aconsejable una división pareja de 50/50? ¿O hay claras ventajas de tener más datos de entrenamiento en relación con los datos de validación (o viceversa)? ¿O es esta elección bastante dependiente de la aplicación? He estado utilizando […]

Clasificación de clases múltiples en libsvm

Estoy trabajando con libsvm y debo implementar la clasificación de multiclasses con uno versus todos . ¿Cómo puedo hacerlo? ¿ libsvm versión de libsvm 2011 usa esto? Creo que mi pregunta no es muy clara. si libsvm no usa automáticamente uno versus todos, usaré un svm para cada clase, de lo contrario, ¿cómo puedo definir […]

Caffe | solver.prototxt values ​​setting strategy strategy

En Caffe, estoy tratando de implementar una red Fully Convolution para la segmentación semántica. Me preguntaba si existe una estrategia específica para configurar ‘solver.prototxt’ valores de ‘solver.prototxt’ para los siguientes ‘solver.prototxt’ : test_iter test_interval iter_size max_iter ¿Depende de la cantidad de imágenes que tienes para tu conjunto de entrenamiento? ¿Si es así, cómo?