A vueltas con la IA

[nota del moderador]
Viene de Org.xfce.powermanager, sin opcion brillo - #15 by keos
[/fin de nota]

Preguntar siempre a una IA por los problemas que tienes, te va hacer más vago y muy pocas veces te va a solucionar un problema…
Es mejor buscar por Internet y preguntar en el foro,

Hace poco poco que pregunte a la IA ChatGP por una aplicación gratuita para Windows para eliminar paginas de un PDF, me dio uno, lo probe y le dije que no valía; me dio otro, lo probe y le dije que no valía; me dio otro, lo probe y le dije que no valía; me dio otro, lo probe y funciono. Como ves, el 4º intento funciono, fue incapaz de solucionarmelo a la primera. Eso dice mucho de que la IA depende de sus fuentes y no razona por si sola.

Y por lo tanto, una IA no tendrá en su memoria (BB.DD) una solucion a tu problema para openSUSE.

3 Likes

Y mas tonto, en serio …¡Tienes toda la razón!. Comparto tu opinión, pero de eso se trata el tema del aspecto negativo de la IA, las generaciones futuras se haran mas idiotas, ¿no has observado que las actuales ya no saben ni escribir?. En cuanto a la resolución de problemas, por el momento, no aciertan mucho, como bien dices, pero ¡prepárense …!, muchos en un futuro, a medio plazo, perderan sus empleos. Y aquí lo dejo porque ya nos salimos del tema,
Saludos.

Eso ya es un OFF-TOPIC como una catedral, pero ¿De dónde has sacado eso?

Los resultados que dan este año son peores que el anterior.

Tienes que usar la IA como cuando vas a un examen y te dejan usar calculadora, pero no una calculadora que puedas meter fórmulas, eso te hace tonto, y no aprendes.

Además cuando se critica la IA, ¿qué IA? hay muchas diferentes y para propósitos muy muy distintos.

Y como toda herramienta, hay que aprenderla a usar. Ir a la IA y pedirle un programa y esperar que el primer resultado es como el botón “voy a tener suerte” de google, posiblemente no funcione, tampoco funciona en muchas ocasiones navegar para encontrar algo.

En realidad aquí el problema es un asunto de mero marketing.

Desde que se comenzó a trabajar en inteligencia artificial, hasta hoy, no se ha avanzado gran cosa, pero se han desarrollado muchas herramientas útiles.

Por ejemplo, si desarrollas un juego tienes sistemas de detección de colisiones. Pero estos mismos sistemas tienen aplicaciones en campos como la arquitectura, la ingeniería para automoción, etc.

Hay un sistema muy guay que tú dibujas un par de piernas, o patas, articuladas, y te genera el movimiento. Y hace décadas que generamos paisajes con algoritmos matemáticos.

Otras veces es una cuestión de tiempo + oportunidad. Por ejemplo, un lector OCR asistido puede servir a una empresita para escanear las facturas que le envían. Y lo hay. Lo malo es que eso se ve superado por la factura electrónica.

Siempre ha habido chatbots. Aquí el problema esté en el origen, en Turing: dijo “si en una conversación no eres capaz de distinguir una máquina de una persona, entonces la máquina es inteligente” y eso es un error. El lenguaje usa una estructura bastante fija y para un sistema informático es fácil simularlo. Lo difícil para una máquina no es decir una frase como si fuera escrita por personas humanas, o incluso mejor: es que esa frase tenga sentido.

La idea de Turing la llevaron más allá en Star Trek. A lo largo de toda su franquicia, esa serie ha mostrado una utopía humana en un futuro relativamente próximo. Y entre otras ideas, exploraba la de la inteligencia artificial.

Los “technobros” modernos, si acaso vieron la serie, no prestaron atención. En TNG la nave tiene algo de inteligencia artificial y es capaz de interpretar comandos de voz. El capitán le dice “nave, busca a fulano” y la nave lo hace. Pero todos los puestos de la nave tienen (supuestamente) complicados paneles que requieren de mucha formación académica para ser interpretados. Si la IA de la nave es tan guay, ¿a qué tanto mando?

Allá por 1997 Microsoft incluyó a Clipper/Clippy en su suite Microsoft Office. Supuestamente, le podías preguntar cosas, del tipo “¿cómo aplico negrilla?”; mas era trampa: si tú escribías simplemente “negrilla”, te daba los mismos resultados :rofl:

Dan Simmons habla de lo que llama “La Singularidad” en algunas de sus obras. No sé si es idea original o si la tomó de otra gente: no, no voy a ver Terminator para ver cómo lo llaman allí, pero creo recordar que no lo nombran así. La idea es que en algún momento de esta época (siempre visto desde el futuro) había tantos sistemas de Inteligencia Artificial en el planeta tan fuertemente interrelacionados a través de Internet, que en un momento dado tomaron conciencia de sí mismos.

El problema de esta idea es que se basa en el principio de que hay muchas inteligencias artificiales por ahí, cosa que en la realidad no sucede. En 2025 estamos más o menos igual de lejos de la inteligencia artificial como cuando se rodó el primer capítulo de Star Trek (TOS).

Los LLM tienen varios problemas. No son, ni pueden ser, Inteligencias artificiales porque carecen de inteligencia: no tienen ninguna capacidad de razonamiento. Ningún LLM es capaz de hacer lo que se hacía con el procesador de la primera computadora de la historia: sumar. Tampoco son mejores que cualquier sistema de búsqueda: la analogía con el “voy a tener suerte” de Google es precisa: te dan un resultado arbitrario, y si eso coincide con lo que buscas, pues guay. Y eso es otro talón de Aquiles: es como usar una pala para clavar un clavo: es posible, pero mejor usa un martillo. Los LLM podrían estar bien para asistir en la escritura de un texto o su corrección ortográfica y gramatical. Requieren muchos recursos, pero al menos tendría sentido. Pero si le preguntas cómo instalar un paquete en openSUSE, te devolverá lo que hay en la wiki(1). Y eso puedes consultarlo tú: SDB:Instalación de aplicaciones - openSUSE Wiki

Otra característica de los LLM usados como motores de búsqueda es que sus resultados empeoran con el tiempo. Los errores tienden a acumularse en el sistema. Es algo así como lo que pasa en los seres humanos con la reproducción entre parientes de primer grado (las mutaciones erróneas se acumulan). Los LLM generan información errónea con mucha rapidez que se expande por el sistema, ocultando la información correcta. Eso es consecuencia de su diseño, no un fallo.

En programación, que es donde tanto fan están encontrando, porque a las personas que programan a vagos no les gana nadie :rofl: se da una paradoja: se abandonan lenguajes como C porque aunque son potentes son fuente de errores que comprometen la seguridad de los sistemas, y a la vez se deposita la confianza en que el código lo generen máquinas :rofl: ¿Qué podría salir mal? :rofl:

(1) pero si en el foro se habla mucho de que aptitude mola más por su sintaxis, podría pasar que a la pregunta de “¿Cómo instalo un paquete en openSUSE?” te devuelva algo como “sudo aptitude install paquete” :rofl:

El código que generan no está nada nada mal, y posiblemente sea mejor que el de programador promedio en código simple, evitando muchos errores por despistes o olvidos de comprobaciones, leaks etc.

Estoy de acuerdo que el código complejo y critico, kernel drivers, rara vez será mejor que el de un programador con experiencia. Y siempre cualquier código de IA requiere revisión, pero se acerca un cambio de paradigma en muchas tareas, con cosas como cursor, cline, etc

Esto no estoy tan de acuerdo, un modelo entrenado no se va a dregadar porque sí, otra cosa es que si a partir de este modelo entranamos otros, los errores del primero pueden alimentar el segundo más los suyos propios y ahí sí podría haber degradación. No hay desgaste por el uso, otra cosa es que los resultados puedan variar porque no son deterministas

1 Like

Tampoco está bien. Luego la gente se pregunta por qué pasa lo que pasa :rofl:

En un entorno de equipos siempre online es difícil entender qué NO es crítico. Recuerdo una vulnerabilidad que se explotaba con una simple URL de navegador. O a Outlook admitiendo instrucciones que quemaban discos.

Hay un viejo chiste que dice que si los arquitectos hicieran las cosas como los programadores, el primer pájaro carpintero acabaría con la civilización.

En mi opinión no sucede más porque gran parte de la IA son muchísimos programadores mal pagados haciendo que eso parezca funcionar.

Pongamos que uso una IA para desarrollar un código. El software completo lo subo a github. Automáticamente ha pasado a ser parte de la entrada de datos de Copilot.

Es muy probable que en promedio la mayoría de desarrolladores que tienen que usar IA por su curro ya estén dedicando más tiempo a supervisar y corregir la IA que el que les requeriría el desarrollo en sí mismo.

Cita:

De algo tienen que comer? .
Y no solo de programas, si no de todo, ética,moral, políticas,religiones, todo…
Cuando no había discos duros y uno no podía tener un tambor de cinta, la base de datos que creaba, era secuencial y se guardaba en una cinta de cassete.

Quizás en cosas mas sencillas y lógicas (de su B.Datos alguna cosa pueda tener razón) .
Saludos

Escuchad esta charla de Carlos Madrid Casado es muy interesante…

Yo soy programador con bastantes años de experiencia, te puedo decir que la IA ayuda a generar un “esqueleto” o código sencillo a partir de las instrucciones que indiques pero siempre he tenido que retocarlo y añadir mas código para que haga lo que le he indicado.
Lo que he descubierto con la IA es que es olvidadiza con respecto al código generado, es decir, me genera un código y le digo que ponga algo en tal sitio y me genera un codigo distinto al anterior. El truco es decirle que me generen varios códigos con instrucciones sencillas y tu mismo lo ensamblas o montas.

Eso si, si desconoces un lenguaje de programación, la IA es de mucha ayuda aunque el código sea “patata” y tu mismo lo modificas con la chuleta ( cheatsheet) o tabla de las instrucciones del lenguaje que estas aprendiendo.

PD: Puedo decir que gracias a la ayuda prestada por los altruistas programadores de Stackoverflow he aprendido mas, ahora esa Web se ha vuelto toxica.

Ahora se tiende a soluciones que permitan que la IA tenga contexto. Automáticamente genera documentación y tú puedes currqrtelo y mejorarla definir las funcionalidades, reglas, conectarla con otros frameworks, diagramas y con todo eso el código mejora bastante.

Sí, pero tienes que hacerlo tú.

Todo esto sería más sencillo nombrándolas por su nombre: Modelo de Lenguaje Grande (LLM).

Eres demasiado joven para haber usado el texto predictivo T9 (¿era el de Nokia? ¿o Motorola?). El punto importante de una IA es que no razona. No piensa. No entiende. Si pones 5 al lado de 2, +, 2 en muchos sitios y va alguien y le pregunta ¿cuánto es 2 + 2?, responderá 5. Es como cuando todo el mundo metía las palabras sex y XXX en las cabeceras de sus webs para fardar del número de visitas :grinning:

1 Like

Jajaja no vi nunca nada en blanco y negro…

Tampoco yo busco un ser inteligente y soy consciente que tal y como hablas en chats gpt simula ser una persona. Sea como fuere es una herramienta muy util pars descubrir muchas cosas en muchos ámbitos. Yo siempre le pido referencias de donde lo saca para navegar y descubrirlo por mi misma. Hay muchas cosas que no uso Google, de hecho los buscadores su primera respuesta no es un enlace sino la IA. Para mí es la adicción como el tiktok (que eso no lo tengo ni instalado)

Para referencias con enlaces, prueba Perplexity AI y te dejo su teléfono +1 (833) 436-3285 por si lo quiere probarlo dentro de Whatsapp.
Otra IA que me ha sorprendido gratamente es una china DeepSeek (lo tienes en castellano), tiene aplicación para Android.

Pero la que de verdad me interesa es Cursor pero requiere VS Code, paso.

No he probado perplexity… Gracias lo probaré. Yo probé cline lo que gasta un montón pero mejora mucho el tener un contexto.

1 Like

Esa en concreto usa la salida de otras IA, imaginaos la capacidad de reproducir errores que tiene eso :grinning:

Si los más viejos del lugar nos lanzamos a discutir con cualquier chatbot que aparecía antes del año 2000, eso es normal.

En ese sentido, lo peor de los LLM es que requieren muchos recursos energéticos y ambientales.

Esto era una barbaridad y le daba mil vueltas a cualquier cosa usada en un smartphone.
De todas formas, para mí el mayor problema de los LLM es el sesgo estadístico y el sesgo humano. Las bases de datos las crean personas humanas, con sus sesgos, pero además, al basarse en la frecuencia de aparición en la web de “cosas”, lo único que hacen es reflejar lo que expresa la mayoría, no lo que es cierto o probable, ni siquiera lo que piensa la mayoría.

Claro, yo estas IA las uso como recursos tecnológicos (codificacion, resolución de errores, verificación etc) y para cosas personales muchas del mundo tecnológico y de otros ámbitos, pues en alguna ocasión le he pasado analíticas de sangre, incluso una radiografía y identificó perfectamente lo mismo que el doctor… etc

Pero terrenos de historia… pues parce ser que si a deepseek si le tiras un poco de la lengua acerca de eventos de China y los comunistas como que está un poco sesgada. O me imagino que si te metes en cualquier atrocidad histórica que todos los paises hancometido y preguntas de EEUU tengo mis dudas que chatgpt no esté sesgada.

Pero en realidad es algo inerente, los historiadores están muchas veces influenciados y sesgados. Al final es un reflejo (copiado)

Respecto a los recursos energético muy interesante este video, no se si se comentó por aquí antes…

¿y la pantalla?

Cuando está en casos promedio, lo hará (pero para eso es fácil ir a un médico y ya). Pero otras veces se “inventará” el resultado, y como es un software, ni siquiera pestañeará.

Un doctor puede equivocarse. Los LLM no se equivocan: simplemente sugieren lo que establece su base de datos por estadística, y como no tiene ni idea de qué correlaciona lo que le estás preguntando, pues te puede soltar cualquier cosa.

Todas están sesgadas políticamente, y *además *todas lo están según los prejuicios de las personas que crean las bases de datos que emplean.

Obviamente. Pero eso no es excusa para hacerlo aún peor. Imagina basar tu conocimiento de historia en las chorradas de Perreteverte excluyendo a todos los demás autores. La respuesta al problema del sesgo es aumentar la base de gente que opina al respecto y seleccionar después las fuentes más fiables mediante un ejercicio de razonamiento.

A Aurora la sigo en Mastodon.

Precisamente!! :grinning:

Tenías una pantalla de juguete en la que veías una docena de palabras como mucho. Tenías un teclado numérico. Y eso era el mejor asistente de escritura que he usado jamás.

Por ejemplo, imagina que la tecla 1 se corresponde a las letras a, b y c, la tecla 2 a las letras d, e y f, y así sucesivamente. Para escribir la palabra cada tienes que pulsar 3 veces la tecla 1 (c), luego dejar pasar un instante, una vez la tecla 1 (a), una vez la tecla 2 (d), y una vez la tecla 1 (a). Probablemente el espacio sea una vez la tecla 0, y sigues así. Un horror comparado con usar un teclado táctil. Y ahí entraba el T9.

Tú escribías la primera letra, digamos pulsando tres veces la tecla 1 (c). Y el sistema te proponía una palabra “probable”: si te sirve, la aceptas, si no, sigues, como los asistentes que se usan ahora. Ahora bien, la calidad de las sugerencias era otro nivel. Era muy fácil escribir mensajes enteros con apenas unas pulsaciones de teclas, aceptando la mayoría de sugerencias. De alguna manera es como si los asistentes modernos se diseñasen para no tener que ayudar tanto :grinning: y fueran más pensados como correctores ortográficos que como asistentes de escritura.