El aprendizaje profundo está creando un nuevo paradigma cognitivo

Hay un resurgimiento en el campo de la inteligencia artificial. Para algunos especialistas extenuantes en el campo, no es demasiado obvio. Muchos se oponen a los avances en Deep Learning. El aprendizaje profundo, sin embargo, es una desviación sorprendentemente radical de los métodos clásicos.

Los procedimientos de IA anticuados generalmente se han centrado en la premisa legítima de la cognición, mientras que el aprendizaje profundo funciona en el territorio de la intuición cognitiva.

Los marcos de aprendizaje profundo muestran un comportamiento que parece biológico a pesar de no estar basado en material biológico. Sucede que la humanidad, afortunadamente, ha descubierto la intuición artificial como aprendizaje profundo.

Índice de contenidos()

    La intuición artificial

    La intuición artificial es un término simple de malinterpretar, ya que parece una emoción artificial y una empatía artificial. En cualquier caso, contrasta fundamentalmente. Los científicos tienen que lidiar con la intuición artificial para que las máquinas puedan suplantar el comportamiento humano con mayor precisión.

    La intuición artificial implica distinguir la perspectiva de un ser humano en tiempo real. En este sentido, por ejemplo, los chatbots, los asistentes virtuales y los robots de atención pueden reaccionar ante las personas de forma aún más apropiada en contexto. La intuición artificial se parece más a la intuición humana, ya que puede evaluar rápidamente la totalidad de una situación, incluidos los indicadores sutiles de una actividad específica.

    Las empresas modernas utilizan el aprendizaje automático para distinguir valores atípicos y patrones que hablan de posibles amenazas y vulnerabilidades. Un desafío ejemplar para los proveedores de ciberseguridad es que un alto nivel de falsos positivos puede causar "fatiga de alarma". La fatiga vigilante es peligrosa a la luz del hecho de que hace que las personas pasen por alto un peligro que están tratando de prevenir. El otro problema son los falsos negativos que se olvidan de distinguir los comportamientos no deseados.

    Anderson describe las estrategias reduccionistas teniendo las siguientes características:

    • Integridad: nos esforzamos por encontrar la solución más ideal.
    • Conclusión: nos esforzamos por obtener todas las soluciones.
    • Repetibilidad: esperamos obtener un resultado similar cada vez que repetimos una prueba en condiciones similares.
    • Oportunidad: esperamos obtener el resultado en un tiempo limitado.
    • Thrifty: Nos esforzamos por encontrar la hipótesis más simple que aclare completamente la información accesible.
    • Transparencia: necesitamos ver cómo nos presentamos al resultado.
    • Examinabilidad: debemos comprender el resultado.

    A pesar de todas las inversiones en ciberseguridad que realizan las organizaciones, suelen estar un paso por detrás de los ciberdelincuentes con el argumento de que algunos modelos son demasiado modestos para pensar siquiera en detectarlos.

    La Inteligencia Artificial y la Big Data

    Ocasionalmente, un cambio de fase es importante para tener un efecto crítico. Esto es lo que Ronald Coifman, profesor Phillips de matemáticas en la Universidad de Yale, y Amir Averbuch, profesor de informática en la Universidad de Tel Aviv, se han esforzado durante diez años. Han creado una serie de algoritmos de "intuición artificial" que encuentran signos débiles en big data de los que carecen otros enfoques.

    Anderson especula que la metodología basada en la lógica debería abandonarse por un enfoque "sin modelo". Es decir, la cognición basada en el instinto no puede surgir de principios basados ​​en la reducción.

    Lo que Anderson interpreta como un "modelo sans" son "partes poco inteligentes", es decir, ella compone: En caso de que esté tratando de construir un sistema inteligente desde lados perspicaces, en ese punto simplemente está empujando las cosas hacia abajo un nivel.

    Anderson propone algunos componentes "sin modelo", cuya mezcla puede inducir comportamientos emergentes que vemos en la intuición.

    Lo más probable es que el "instinto computacional" sea un término más preciso, ya que los algoritmos del equipo analizan las relaciones en los datos en lugar de diseccionar los valores de los datos, que es comúnmente la forma en que funciona la IA. En particular, los algoritmos pueden reconocer patrones nuevos y ya no detectados, por ejemplo, el ciberdelito que ocurre en lo que da la impresión de ser transacciones inofensivas.

    Por ejemplo, los algoritmos de Coifman y Averbuch reconocieron mil millones de dólares en transferencias de dinero nominales (por ejemplo, 25 dólares) de millones de cuentas bancarias en varias naciones que apoyaban a un importante grupo terrorista.

    Deja una respuesta

    Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

    Subir

    Esta web utiliza cookies propias y de terceros para mejorar su experiencia de navegación y realizar tareas de analítica. Más información