Los humanos somos muy contradictorios:
Un día es una cosa, otro día es otra. Un día pueden con todo, al otro día no. Un día son algo, al otro día son todo, y después son nada.
Y pensé, bueno, eso no encaja muy bien con la IA (Syntec Machines & Intelligence Systems), es decir, ese modelo humano contradictorio. Y es bien raro porque siempre esperamos que la eficiencia se delate mediante acciones directas de respuesta para sistemas y máquinas. Es decir, hacemos sistemas basados en respuestas absolutas (binarios, o multibinarios: computación cuántica).
Pero allí, justamente es donde radica nuestra semejanza.
Bueno, esto lo pensé, después de algunas ideas de la tarde. Yo estudié economía, y parte de la enseñanza consiste en estudiar algunas otras ideas como las de Adam Smith y la mano invisibile, en lo personal creo que la idea de la mano invisible está adelantanda a las circunstancias sociales de la época, pero bueno, la idea de la mano invisibile consiste en que el egoísmo de los seres humanos los hará tomar las mejores decisiones en su calidad para mejorar su propia existencia pero a la vez está combinación de agentes buscando su propio bienestar hace funcionar las cosas de manera más eficiente.
En la mañana hablaba con mamá acerca de el principio del libre albedrío, y cómo en una serie de permutaciones infinita esto sería lo más eficiente (eso ya lo escribí).
Y pensé ahora en la noche, allí en parte radica lo humano, ¿No?. El poder tomar decisiones con total libertad independientemente de nuestra incapacidad para saber la serie infinita de repercusiones.
¿Cuando la IA pueda basar sus propias decisiones será una conciencia equivalente a la humana?
¿La IA tomará sus decisiones con base en información infinita?
¿Llegará el momento en que la IA se contradiga para la toma de decisiones tal y cómo lo hacemos los humanos? Pero eso no podría pasar si tomamos elementos de máxima eficiencia, bueno, al menos para decisiones unipersonales, pero para colectivas, en la que la série de permutaciones al momento están cambiando continuamente podrían tomarse decisiones que después fueran contradictorias?
¿Habrá algún principio de contradicción sobre elementos al momento por parte de la IA cómo sucede con los humanos?
Bueno, creo que este problema se puede resolver de varias maneras. Parte fundamental para el avance de la IA es entender correctamente al ser humano.
Por cierto, y pensé: es que no estamos muy preparados para esto, para Synthetic Machines & Intelligence Systems.
O avanzamos muy rápido como humanidad (mejorar la calidad en la forma de ser de los seres humanos) o avanzamos más lento (con sus respectivas posibilidades). Para mí la primera es mejor, porque dado los desafíos actuales estamos entre la espadad y la pared, la IA puede ayudar no solo a crear modelos eficientes para la toma de decisiones, sino también a encontrar soluciones para problemas más complejos, imposibles de entender de manera eficiente para los humanos (junto con otras tecnologías que se están desarrollando).
Por eso siempre he puesto especial interés en la educación, el progreso, y cómo humanizar y volver a las sociedades más concientes es de suma importancia.
Bromitas de de-ux:
Se imaginan, preguntando a la Big Machine, y que les responda (bueno, al menos respondería, jajaja): "No estoy segura, los datos no son eficientes. No tengo una solución".
"¡Qué! ¡Hemos pasado años investigando esto, millones invertidos y no hay solución! 😆. ¡Creo que debemo hacer una re-ingeniería de todo!". (∆λ Zπ).
No hay comentarios:
Publicar un comentario