Hola: el día 12 salio una noticia de ejecutar Ollama en TW de forma local.
En principio no se que era, pero según algunos videos y comentarios es como una IA en local .
Estuve mirando la noticia y en la traducción sale una frase que dice : asegúrese de que su sistema esté actualizado .
y debajo pone zypper ref y zypper up (abreviado) , en TW no se debería usar zypper dup ? según tengo entendido .
Otros comentarios por la web, dice que va bien en linux y windows (pero algo peor en mac) , también comenta que detecta bien la gráfica ¿ me supongo que para TW, debe tener los drivers instalados ? .
Otra duda que se me presenta, es si está para linux ¿ se podrá ejecutar en Leap? .
Otra mas es que se comenta que necesita mucha ram , (dependiendo lo que se cargue , en los videos explican que es cada uno y lo que ocupa) , lo que no se es si es del pc (ddr) o bien la ram de la gráfica , según tengo entendido es de los dos tipos ( el que lo probo lo hizo con 16GB) .
Lo comento , porque tengo curiosidad de como es, que analogía puede tener con otras IA (unos comenta que es como un chatgpt, otros como un dock,etc…)
En mi caso estoy limitado por ahora a un portátil y una WS, pero no tengo instalado TW, y por otro el solucionar problemas y investigar y terminar tres equipos .
Ya uno le he solucionado el tema de la RL , por lo que seguiré con el montaje , en el caso de probar ollama, puedo cambiar las configuraciones, como usar una 4090 (tengo 2 disponibles) y memorias de 64 o 128Gb (todo en base de las experiencias de el que lo pruebe, vamos no me quedare con los comentarios y videos que he visto, si no probar lo con un linux que me guste (en este caso OpenSUSE, ya sea posible en Leap o si no en TW) .
Los candidatos son 13900k y 14900k (que desde un principio, estaba pensado para montar una IA)
Saludos
