Noticias

10 de junio.

Se realizará Coloquio «Tecnología y transformación: el mundo en que vivimos».

El mundo en que vivimos sufre un proceso creciente de saturación tecnológica que lo transforma en todas dimensiones, respetando solamente las leyes naturales que lo rigen.

4 de junio de 2019

El 10 de junio se realizará el quinto Coloquio mensual 2019 titulado "Tecnología y transformación: el mundo en que vivimos", organizado por el Centro Sociedad Tecnológica y Futuro Humano perteneciente a la Facultad de Humanidades, Universidad Mayor.
Nuestro mundo sufre cambios radicales que cuestionan las bases ancestrales de nuestra identidad y seguridad, ponen en duda nuestra libertad y liderazgo y la misma supervivencia de nuestra especie en la Tierra. En unas pocas décadas estaríamos ante una Singularidad Tecnológica, gatillada por una Inteligencia Artificial superior a la humana, más allá de lo cual no es posible ver ni predecir lo que viene. ¿Qué hacer en este escenario? Este Coloquio busca aportar elementos para plantear y discutir posibles respuestas.
Sobre el tema expondrá José Miguel Arteaga, Filósofo, Magíster en Economía y experto en Medio Ambiente, quien nos hará reflexionar sobre el mundo en que vivimos, que sufre un proceso creciente de saturación tecnológica que lo transforma en todas dimensiones, respetando solamente las leyes naturales que lo rigen.
La distancia que separa la biósfera original del homo sapiens, de la forma que presenta en la actualidad, aumenta exponencialmente, haciéndolo irreconocible y de comprensión cada día más difícil.
Las tecnologías emergentes surgen desde distintos focos; en general provienen de los avances en distintos campos de las ciencias naturales.
El empuje de las fuerzas de transformación radica en distintas fuentes, entre las que hay que contar la presión ejercida por las necesidades humanas; la intensidad de la lucha política y geopolítica y las necesidades de valorización del capital, que necesita nutrir día a día su ciclo de reproducción y crecer mediante la acumulación de capital.
La dirección, masividad, profundidad y aceleración de los cambios remecen las bases más profundas de nuestra seguridad y hacen surgir interrogantes de difícil respuesta, generando una extendida incertidumbre.
¿Hay riesgos reales que afecten la supervivencia de la especie? ¿Cuáles son sus raíces? ¿A qué plazos se plantean? ¿Qué capacidad real de control tenemos sobre ellos?
Al transferir a las cosas nuestras virtudes, facultades y capacidades ¿no estamos poniendo en riesgo nuestro futuro, convirtiendo al mundo en un sistema cosificado, autónomo e independiente, dirigido por una inteligencia eventualmente superior a la humana, que puede ponerse en contra nuestra? ¿Qué capacidad tenemos de impedir este proceso?
La Inteligencia Artificial se esté modelando, aprendiendo y desarrollando en base a nuestro propia mentalidad y comportamiento. ¿No estamos creando de esa manera una Inteligencia Artificial inevitablemente peligrosa, egoísta y agresiva, que el día de mañana podría vernos como sus peores enemigos?
¿Es posible asegurar un alineamiento ético de la Inteligencia Artificial con los valores humanos a futuro?
¿Es posible impregnar, masivamente, nuestra propia mentalidad con valores positivos, como solidaridad, altruismo, paz, armonía, amor y cariño? ¿Es posible hacerlo sobre la base real con que producimos y reproducimos nuestra vida material y espiritual, marcada por luchas, guerras y conflictos?
La hipótesis de la Singularidad Tecnológica, horizonte de sucesos más allá de los cuales no es posible visualizar ni predecir lo que viene, gatillada por una Inteligencia Artificial que alcanza y supera la inteligencia humana ¿Tiene base real? ¿Es un fenómeno inevitable? ¿A qué plazo se plantea?
La actividad se efectuará a las 13.30 hrs., en el auditorio de la Facultad de Humanidades ubicado en el piso -1, sede Manuel Montt 367, Providencia.  

 

 

Te recomendamos leer:

Agregue su comentario

Agregue su Comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *