Links: University

T1 Introducción

Agente

Arquitectura+Programa

Agente reactivo simple

Selecciona una acción en base a percepciones actuales
Se basa en reflejos

Agente basado en modelos

Mantiene un estado interno que almacena la evolución del ambiente

Agente basado en metas

Conoce una serie de objetivos a alcanzar
Planifica la secuencia de acciones para lograr sus metas

Agente basado en utilidad

Cada estado tiene asociada una utilidad
El agente debe alcanzar los estados de mayor utilidad

Determinimo

Deteminista

Cada acción de un agente lleva a un estado que es predecible

Estocástico

El estado al que se llega depende de un elemento aleatorio, además de la acción tomada

Obsevabilidad

Completamente

Los sensores del agente le permiten conocer el estado completo del entorno

Parcialmente

El agente solo puede obtener una noción parcial del estado actual

T2 búsqueda

Un problema de búsqueda se compone de:

  • Estado inicial
  • Conjunto de acciones
  • Modelo de transición
  • Prueba de meta
  • Función de coste del camino

NO Informada (a ciegas)

Amplitud

Explora un nivel de profundidiad por completo antes de pasar al siguiente.
Siempre encuentra la solución que requiere menos pasos, si existe y si tiene tiempo y memoria suficiente.
Es óptima si todos los pasos cuestan lo mismo, de lo contrario la primera solución no es necesariamente la mejor.
Alto coste de memoria

Coste uniforme

Es una variación de la búsqueda por amplitud/anchura.
Expande lso nodos con menor coste de camino, si todos tienen el mismo coste será igual a amplitud.
Es óptima

Profundidad

Recorre el arbol en profundidad.
Bajo coste de memoria.
No es óptima ya que puede encontrar una solución más profunda que la óptima

Profundidad limitada

Ya que la búsqueda en profundidad puede cear en caminos infinitos, se limita la profundidad máxima.

Profundidad iterativa

La búsqueda en profundidad limitada no es completa, para arreglar eso incrementamos gradualmente el límite
Tienen los beneficios de la búsqueda en profundidad y en anchura la mismo tiempo.

Informada (heurística)

Avara

f(n) solo considera el coste mínimo estimado para llegar a una solución a partir de un nodo n, h(n) o función heurística
f(n) = h(n)
No es óptima ni completa porque puede perderse un buclesy recorrer rutas infinitas

A*

f(n) considera el coste mínimo total del camino a un nodo solución que pase por el nodo n
f(n) = g(n) + h(n)
g(n) siendo el coste consumido para llegar a n
No es práctico para problemas muy grandes por su complejidad espacial (mantiene todos los nodos generados en memoria)

T3 Representación del conocimiento

Métodos declarativos

Colección estática de hechos
Fácil de incrementar

Redes semánticas

  • Se reprensenta como un conjunto de nodos conectados entre sí por medio de arcos etiquetados
  • Similar a un diagrama Entidad Relación de base de datos
  • Los enlaces son unidireccionales

Frames o Marcos

Es muy similar a org-mode
Se forma por cabeceras y slots

  • Cabecera: Le da un nombre al frame, y es representativa de la clase de objetos que se describen
  • Slots: Elementos que representan un propiedad o tributo del elemento genérico representado por el frame
    Pueden anidarse

Métodos procedimentales

El conocimiento se representa como procedimientos
Premite trabajar con información de caracter probabilistico, incorpora conocimiento heurístico

Reglas de producción

Consta de tres partes:

  • IF concidión o premisa
  • THEN conclusión o acción
  • ELSE alternativa

T4 Sistemas de producción

Sistemas inteligentes basados en reglas que operan frente a una base de hechos con mecanismos de emparejamiento formando parte explícita de su arquitectura.

Arquitectura

Base de conocimiento

Describe el universo de discurso o ciminio en el cual el sistema de producción tiene que plantear soluciones

Memoria activa

Es la estructura que contiene toda la información de naturaleza estática necesaria para resolver un problema concreto.

  • Datos iniciales del problema
  • Datos incorporados con posterioridad
  • Hechos establecicos durante los procesos inferenciales
  • Hipótesis de trabajo, metas o submetas que todavóa no han sido establecidas

Almacena todos los cambios del estado, representando el estado actual

Motor de inferencias

Interprete de reglas + Estrategia de control

  • Examina la memoria activa y determina qué reglas deben ejecutarse
  • Controla y organiza el proceso de ejecución de las reglas selecionadas en el paso anterior
  • Actualiza la memoria activa cuando sea preciso
  • Asegura el autoconocimiento del sistema

Es un programa secuencial cuya misión es determinar el siguiente paso a ejecutar

Dinámica de los sistemad de produción

Dirigidos por los datos

  • Las inferencias se obtienen cuando los antecedente de alguna de sus reglas de produción se emparejan con, al menos, una parte de los hechos que describen el estado actual
  • Son menos específicos, proque ejecutarán todas las reglas disponibles en función de la información introducida

Dirigidos por las metas

  • Tanto antecedentes como consecuentes de las reglas deben ser considerados como aserciones sobre los datos. En este caso, la activación de las reglas tiene lugar por medio de un encadenamiento regresivo, y el emparejamiento se efectúa a través de las conclusiones de las reglas.
  • Son más específicos, porque la ejecución lleva implícito un proceso de búsqueda

Ciclo básico de los sistemas de producción

Fase de decisión o selección de reglas

Fase de ejecución

T5 Modelos de razonamiento

Modelos categóricos

Dominios de naturaleza marcadamente simbólica, con soluciones que pueen establecerse con total seguridad

Procedimiento

  • Identificación de Manifestaciones
  • Identificación de Interpretaciones
  • Construción de E (función de conocimiento)
  • Construcción del conjunto completo de conplejos de manifestacioes
  • Construcción del conjunto completo de complejos de interpretaciones
  • Construcción del conjunto completo de complejos manifestación-interpretación

Modelos probabilísticos

Dominios de naturaleza estadística, soluciones no obtenibles de forma unívoca

Modelos de razonamiento bajo incertidumbre

Dominios con incertidumbre, inherente a datos o a los propios mecanismos inferenciales.

Modelo de razonamiento basado en conjuntos difusos

Dominios en los que los elementos diferenciales incluyen matices lingüísticos

T6 Sistemas Conexionistas Alimentados Hacia Delante

La neurona artificial

También llamada Elemento de Procesado (EP o PE).
Los valores de entrada son números reales, lo más simple es (0,1).
Las unidades son conectadoas a través de conexiones con un valor (peso) asociado que codifican el conocimiento de la red.
El Bias es la predisposición de una neurona a activarse
Cuentan con una función de transferencia

Adaline

Adaptive Linear Element
Una sola capa de PE lineales pueden realizar aproximaciones a funciones lineales o asociación de patrones.
Se puede entrenar con el algoritmo LMS (Least Mean Square o Regla Delta)
Su limitación es que solo realiza aproximaciones lineales

Aplicaciones

Diseño de filtros capaces de eliminar ruido en señales portadores de información.
RNA de preción de valores futuros en señales.

Perceptrón

Primer modelo de RNA (1958)
Tiene una capa de entrada y un único elemento en la capa de salida.
Capaz de resolver problemas lineales separables

Perceptron multicapa

  • Capa de entrad
  • Capas ocultas
  • Capa de salida

Aplicaciones

Se usan para el reconocimiento de patrones.
Problemas donde es más importante el patrón que los datos exactos.
Se usa RNA cuando no se puede escribir un algoritmo que que resuelva el problema, o no se puede explicitar el conocimiento.

  • Clasificación
  • Predicción
  • Clustering (Agrupamiento)
  • Aproximación de curvas
  • Regresión

T9 Otros Modelos de Sistemas Conexionistas

Mapas auto-organizados (SOM)

Ventajas

  • Transparente a los datos de entrada (se limitan a comparar vectores)
  • Adaptación local de los vectores de referencia a la densidad de probabilidad de los datos
  • Facilidad de visualización gracias a la malla que conforma la topología de la capa de salida
  • Facilidad de integración con otras técnicas

Limitaciones o inconvenientes

  • Necesidad de determinar la arquitectura exacta de la red antes de someterla al entrenamiento e imposibilidad de modificar su diseño durante el mismo
  • Algunas neuronas pueden no ser entrenadas: pueden existir vectores de pesos muy distnaciados ade las entrads, con lo cual, nunca ganarán
  • No se puede medir hasta que punto es buena la neurona vencedora, la neurona que gana es la más cercana a la entrada, pero no podemos cuantificar si está cerca o lejos de lso pesos adecuados
  • Importantísimo en estos sistemas: la inicialización de los pesos
  • Son caros computacionalmente cuando se incrementa la dimensión de los datos

Crecimiento de redes (GCS, GCG)

  • La topología autoadaptativa de la red es altamente independiente del usuario.
  • La estructura de la capa de salida de la red queda automáticamente establecida por los datos de entrada
  • Los parámetros de entrenamiento que hay que establecer son relativamente pocos y constantes, en contraste con los parámetros de área de vecindad o factor de aprendizaje dependientes del tiempo en el modelo Kohonen.
  • La capacidad de insertar y eliminar neuronas ofrece la posibilidad de obtener mejores estimaciones de la densidad deprobabilidad del espacio de entrada que los de otras redes autoorganizativas, al no posicionar neuronas en zonas del espacio de entrada con baja o nula densidad.
  • Tienen suficiente capacidad para procesar espacios de datos de gran dimensión, tareas de descubimiento de conocimiento como: aproximación de funciones, visualización, clustering, etc.
  • Aunque originalmente el entrenamiento es no supervisado, puede adapatarse a procesos de aprendizaje supervisado para clasificación.

T10 Computación Evolutiva