Revolución en la Restauración de Imágenes con Flux Context
Descripción
En este video, se explora el innovador modelo de generación de imágenes Flux Context, que permite restaurar fotografías antiguas y realizar ediciones precisas con un enfoque multimodal. Se destacan sus capacidades para conservar la apariencia original de las imágenes mientras se aplican modificaciones creativas.
Principales Características de Flux Context
- Restauración de Imágenes: Capacidad para restaurar fotografías antiguas, eliminando daños y añadiendo color, logrando resultados que parecen tomados con cámaras modernas.
- Edición Precisa: Permite realizar ediciones detalladas, como eliminar objetos o personas de una imagen, manteniendo la coherencia visual.
- Multimodalidad: Integra texto e imágenes como entradas, facilitando la edición a través de comandos en lenguaje natural.
- Velocidad de Procesamiento: Genera imágenes en cuestión de segundos, superando la lentitud de otros modelos como Chat GPT.
Casos de Uso
- Colorear Imágenes en Blanco y Negro: Transformar fotos antiguas en color de manera rápida y efectiva.
- Eliminar Elementos Específicos: Capacidad para eliminar personas o elementos de una imagen basándose en descripciones detalladas.
- Generación de Contenido Visual: Crear imágenes para marketing, camisetas y más, manteniendo la coherencia de los personajes y productos.
Limitaciones
- Pérdida de Calidad: Al realizar múltiples ediciones sobre una misma imagen, puede haber deterioro en la calidad visual.
- Generación de Texto: Aunque se puede modificar texto en imágenes, la precisión aún no es perfecta.
Conclusión
Flux Context representa un avance significativo en la edición y generación de imágenes, ofreciendo herramientas poderosas para creativos y profesionales. Su capacidad para restaurar y modificar imágenes con precisión a nivel de píxel lo convierte en una herramienta valiosa en el ámbito de la inteligencia artificial.
Preguntas Frecuentes (FAQs)
-
¿Qué es Flux Context?
Flux Context es un modelo de generación de imágenes que permite restaurar y editar fotografías con alta precisión y rapidez. -
¿Cómo se utiliza Flux Context para restaurar imágenes antiguas?
Se puede subir una imagen dañada y solicitar al modelo que elimine daños y añada color, generando versiones restauradas. -
¿Qué tipo de ediciones se pueden hacer con Flux Context?
Se pueden realizar ediciones como eliminar objetos, cambiar colores, y generar nuevas escenas a partir de imágenes existentes. -
¿Es Flux Context rápido en comparación con otros modelos?
Sí, Flux Context puede generar imágenes en 10-15 segundos, lo que es significativamente más rápido que otros modelos como Chat GPT. -
¿Existen limitaciones en el uso de Flux Context?
Sí, puede haber pérdida de calidad en imágenes tras múltiples ediciones y la generación de texto aún no es completamente precisa. -
¿Dónde puedo acceder a Flux Context?
Se puede acceder a través de la plataforma de Black Forest Labs, donde también se ofrecen créditos gratuitos para probar el modelo. -
¿Qué futuro tiene Flux Context en la edición de imágenes?
Con el avance de la tecnología, se espera que Flux Context continúe evolucionando, ofreciendo más funcionalidades y mejorando la calidad de las ediciones. Para más información sobre modelos de generación de imágenes, consulta el Ultimate Guide to Installing Forge UI and Flowing with Flux Models y su aplicación en la restauración de imágenes.
Sorprenderse en 2025 con un modelo de generación de imágenes es raro, pero atentos a esto. Voy a subir esta imagen
de aquí, una imagen antigua con daños que no tiene color y le vamos a pedir al modelo pues que la restaure. En concreto
le voy a pedir que restaure la fotografía eliminando eh daños, que le añada color, que parezca que está tomada
con una fotografía moderna, con una cámara DLR. Le damos a ejecutar y atentos lo poco que tarda el modelo en
darnos una imagen como esta. Le he pedido pues que genere cuatro imágenes. La verdad que le podía haber pedido que
solo generara una porque las cuatro son cuatro restauraciones profesionales de la imagen original. Fijaos, tenemos pues
esta de aquí, tenemos esta de aquí, tenemos esta de aquí y tenemos esta de aquí. Imágenes que si os dais cuenta,
pues traen algo muy importante y es que la apariencia de la persona que aparece en la imagen se conserva perfectamente.
Mira que hay un poquito de incertidumbre, pues por la falta de calidad de la imagen original, pero
fijaos que pues se trataría de una restauración bastante bastante fida y digna de lo que podría ser la imagen
original. Y de esto vamos a hablar hoy. Carlos, ¿vas a hablar de un modelo que restaura imágenes antiguas? Bueno, en
parte sí, porque es una de las cualidades de este modelo, pero la cosa va mucho más allá porque hoy vamos a
estar hablando de un modelo supervátil y superpotente de edición y generación de imágenes. Vamos a hablar de Flux
Context. Y es que ya sabéis que este 2025 pues la generación de imágenes ha evolucionado hacia la multimodalidad, la
capacidad de poder editar imágenes a golpe de promptia inteligencia qué tipo de
manipulaciones queremos hacer con dichas imágenes. Esto lo hemos visto en Chat GPT, en la versión GPT4, que
recientemente activaron pues esta capacidad de hacer imágenes al estilo Studio Gibbly, de poder darle pautas y
que te haga modificaciones y que es supervátil y superpotente, pero con una limitación. Y es que ya sabéis que el
modelo de Chat GPT, pues si le subo una imagen como esta, vamos a subirla para acá y le vamos a pedir, por ejemplo, una
edición relativamente sencilla, que es que me quite la mano de la cara y le damos a enviar. En este caso, el
resultado que vamos a observar cuando Chat GPT termine de pensar es una imagen como esta, que sí es muy parecida y que
efectivamente cumple de manera muy inteligente con el prompt que le he pedido, ha quitado la mano de la
barbilla, pero chicos, yo no soy esta persona, ¿vale? se me parece mucho, eh, se mantiene la apariencia, muchos de los
rasgos, pero este no soy yo. Y este es el problema que tienen modelos multimodales como Chat GPT, que bueno,
pues es capaz de observar una imagen, es capaz de generar en consecuencia otra imagen, pero en este canal de
procesamiento pues se pierde parte de la información y la apariencia de la imagen original no se respeta. Y aquí es donde
entra Black Forest Laps, un laboratorio europeo que ya nos ha dado muchas alegrías en el pasado con la salida del
modelo de generación de imágenes open source Flux, que ahora está presentando una nueva familia de modelos, que en
este caso se llaman Flux Context, que nos van a aportar esta capacidad multimodal de poder editar imágenes
usando como input lenguaje natural, también imágenes, pero en este caso con una precisión a nivel de píxel que va a
permitir que en muchos casos se conserve la apariencia de la imagen original, haciendo de esto una herramienta
superpotente. Fijaos, podemos subir una imagen como esta donde la cara de la chica pues está efectivamente tapada por
estos copos de nieve y le podemos pedir directamente al modelo que elimine esa cosa que tiene en la cara. El modelo
consigue perfectamente respetar pues la poca información que se percibe a través de los copos para generar una cara que
bueno pues sí es bastante consistente con la imagen original. Ahora podemos a esta chica y conservar la
apariencia de ella para decirle, "Ahora quiero que esté tomándose un selfie en mitad de las calles de Freborg." en un
día que esté soleado y te genera una imagen como esta. Y ahora sobre esta imagen le podemos decir que queremos que
esté nevado y entonces el modelo te genera una imagen como esta que si os dais cuenta todos los elementos de
atrás, toda la gente que está en la calle se conserva perfectamente. La imagen apenas se altera, excepto por
aquellas pautas que nosotros hemos marcado en el prompt. Y esto lo que nos deja es una herramienta potentísima con
un montón de casos de usos que la gente ya está empezando a descubrir. De nuevo, estamos ante un modelo fundacional que
entre más utiliza la gente, pues más usos vamos encontrando y la idea en el vídeo de hoy pues es explicaros alguna
de estas funcionalidades y algunas de las limitaciones que también he encontrado al utilizar este modelo. Pero
fijaos qué cosas más guapas podemos hacer. pues subir una imagen como esta y decir, "Quiero ver cómo se vería puesto
en un tatuaje", donde los patrones de la imagen original se conservan perfectamente o poder hacer ediciones
como si estuviéramos trabajando con el Photoshop más avanzado del mundo, donde le podemos decir, "Oye, quiero que esta
fotografía de aquí, pues el ramo de flores sea un poquito más eh bonito, que sean unas rosas preciosas como estas." Y
ahora que tengo esta imagen, pues muéstrame otro retrato, pero en este caso tomado desde la perspectiva de
delante del chico, ¿no? Pues vemos esta imagen de aquí, un montón de casos de uso que vamos a explorar ahora. Y el
primero, ya lo habéis visto, es bastante impresionante, restaurar imágenes antiguas. Os recomiendo, pues, que
imágenes que tengáis analógicas las digitalicéis y las recuperéis haciendo uso de este tipo de modelos. Pero no
solo tenéis que quedaros con imágenes que estén muy dañadas, sino que también podéis recuperar imágenes en blanco y
negro. Pues voy a subir en este caso esta imagen de la torre Ifel a medio construir y le vamos a pedir simplemente
que coloree la imagen. ¿Vale? Pues le he pedido que añada color a esta imagen para que parezca que ha sido tomada pues
hoy. En este caso, yo os recomiendo aún cuando os creáis maestros del prompt que activéis en esta herramienta, pues el
prompt absampling que lo que va a hacer es acercar más el prompt. Ellos van a procesar lo que tú escribas para
acercarlo más a como el modelo pues entiende estas ediciones. Entonces vamos a darle aquí a marcar. Vamos a procesar.
Y otra cosa muy interesante de este modelo es lo rápido que funciona. Acostumbrados a lo lento que funciona
Chat GPT en su modelo autorregresivo. Bueno, bueno, bueno. Fijaos qué pasada de la imagen original que teníamos en
blanco y negro. Pues en este caso, como tenemos cuatro versiones, pues donde el coloreado de forma automática está hecho
perfectamente y esto, como digo, en muchas ocasiones, pues era un trabajo que llevaba horas y horas de edición
dentro del Photoshop coloreando diferentes capas y aquí, pues, en cuestión de segundos funciona. Y como os
estaba comentando, qué rápido es este modelo si lo comparamos con el proceso autorregresivo que tiene Chat GPT, donde
una imagen se genera en un minuto, 2 minutos y en este caso estamos hablando de, bueno, una generación que va en
torno a los 10, 15 segundos muy rápido. Así que bueno, colorear fotografías antiguas, check. Vamos a hacer una
edición sobre alguna de estas imágenes. Creo que la que más me ha gustado ha sido la última. Le voy a dar a editar y
vamos a probar con este prom que me genera curiosidad, que es añade a gente tomándose un selfie en este lugar. A ver
si conseguimos que el modelo respete la estructura antigua de la Torre Fel y no se vaya a una solución memorizada,
overfiteada de la Torre Fel ya construida. Vamos a marcar de nuevo el prompt applling y le damos a procesar.
Esperamos unos segundos y tenemos un resultado. Pues perfectamente. Fijaos. Buah, qué guapo. Pero fijaos, no es una
edición perfecta porque parte de la imagen original pues tenía una mala calidad. Lo podemos ver en el fondo que
no se corresponde a, bueno, a la buena calidad de la persona que está puesta. Entonces, bueno, sí se notaría que esto,
evidentemente es un edit. Podríamos pedirle al modelo que haga un poquito más homogénea pues toda la imagen
general, pero bueno, un poco para ver cómo funcionan estas ediciones. Creo que este resultado está bastante curioso. Y
de la antigua Torrifel nos vamos a ir a una versión más nueva. En este caso para mostraros otra funcionalidad que os
puede ser de utilidad y que demuestra el potencial de este modelo, que es pues algo que antes en Photoshop también nos
hubiera llevado un ratito de seleccionar a la gente para eliminarla y dejar una imagen limpia. Pues vamos a pedirle que
elimine a toda la gente de esta imagen. Ya el modelo entenderá qué son personas, qué no lo son y con esto pues nos va a
dar un resultado como estos de aquí. Qué barbaridad. Qué barbaridad, porque fijaos que yo no me había dado cuenta ni
siquiera del patrón que había en el suelo de la plaza. O sea, ahora seguramente si nos fijemos va a ser más
evidente, pero ha hecho una limpieza perfecta de toda la gente que había en la plaza. Vamos a ver la imagen
original. Y efectivamente, pues sí tenemos el patrón en el suelo, pero que como digo, con tanta gente era
información que para mí había pasado desapercibido y que el modelo en las cuatro imágenes que ha generado, y estoy
generando cuatro para que veáis la robustez que tiene el modelo con ciertos prompts, en este caso pues ha sido un
100% de efectividad, ha conseguido eliminar a toda la gente que estaba ahí, que de hecho podemos hacerlo un poquito
más complicado. Yo creo que esto no va a funcionar bien, pero le voy a pedir que elimine solamente a la gente que tenga
eh camisetas rojas. Vamos a ver si el modelo es capaz de filtrar eh de manera tan fina, ¿no? De percibir pues que este
chico de aquí o este chico de aquí, esta chica, esta chica, tienen que ser eliminados. Vamos a probar. Elimina toda
la gente de esta imagen que esté llevando una camiseta roja. Realmente, si esto funciona, me voy a ver
gratamente sorprendido, pero entiendo que es un prompt bastante bastante complicado y muy
[Música] específico. Y efectivamente ha quitado a toda la gente que en algún momento de su
vida ha llevado una camiseta roja. Eh, nada, ha filtrado a toda la gente y y listo. Pues aquí podéis ver que en este
caso el modelo a la hora de seguir estas instrucciones tan finas, pues ahí sí que tiene más dificultades. No estamos con
una AGI de generación de imágenes, pero bueno, algo que se le acerca bastante. Otra funcionalidad muy chula que tiene
el modelo es esto que estamos viendo aquí, que es la parte de eh generar texto legible. Sabemos que los modelos
actuales también lo tienen, pero en este caso pues manteniendo de nuevo la coherencia de la imagen original. Vamos
a hacer una prueba porque aquí no nos creemos nada de lo que nos enseñan eh en las previews y vamos a probar a pedirle
al modelo que cambie el texto. Hay que hacerlo muy explícito diciéndole cambia esta palabra noish to.csb. Vamos a
probar a ver si aquí podemos hacer que aparezca el nombre que dio vida a este canal. Le damos a procesar y vamos a ver
qué sale. Estoy nervioso. Eh, si lo conseguimos y mantenemos la coherencia de la imagen original, pues ahí sí
tenemos una herramienta muy potente para hacer wow. Wow. Bueno, bueno, bueno, bueno. Esto es una
barbaridad, chavales. Fijaos, voy a pasar antes y después entre la primera y segunda imagen generada como el texto
cambia un poquito, pero las plantas, muchos de los elementos del fondo de la imagen, pues se mantienen coherentes. A
esto nos referimos con que la imagen no varía, que tiene precisión a nivel de píxel para hacer ediciones como estas.
Fijaos que en este caso las cuatro imágenes generadas pues responden perfectamente al prompt que le habíamos
pedido. Qué pasada. Y si cojo esta imagen y ahora la edito y le digo que cambie la palabra café por una frase más
larga, en este caso new video uploaded, ¿cómo va a trabajar el modelo con esto? Porque aquí no va a caber. Entonces va a
tener que hacer este cartel mucho más largo o lo va a comprimir todo en este rectángulo. Tengo curiosidad. Vamos a
poner al modelo contra las cuerdas y a ver cómo soluciona este prompt. Vale, muy bien. Eh, fijaos con el texto un
poco más largo. Si yo no lo he escrito mal, eh, vemos que ha habido un error aquí, pues ha añadido una O de más.
Sabemos que esto pasa a veces con los modelos, pues vemos que aquí la generación de texto todavía no está 100%
refinada, pero de nuevo el edit es bastante bastante bueno. En este caso aquí pues cobrará menos por este que por
este, pero en general muy bien. Otra cosa muy chula que ellos mostraban y muy útil en el contexto de dónde nos
encontramos en 2025 es esto de aquí, el poder generar una imagen pues tan loca como esta y mantener esta coherencia de
personajes o de productos, ahora lo comentamos, en diferentes imágenes que vayamos generando, ¿no? Donde este
personaje, por muy extraño que sea, lo podemos integrar en diferentes escenas para crear un relato narrativo ilustrado
o incluso un vídeo eh donde estos personajes pues se mantengan. Esto en 2023 era un dolor de cabeza. En 2025 con
modelos de este tipo, pues es una realidad. Y vamos a probarlo. Me voy a ir en este caso primero a la pestaña de
generar y le voy a pedir al modelo que genere de cero, al final no deja de ser un modelo flux, pues un pangolín punk
que lleva unas gafas que son raras y que tiene una cresta verde en el pelo. Vamos a ver qué nos genera con
esto. Vale, este me gusta mucho. De todos este me gusta bastante. Este es el pangolín, el punk golín, vamos a
llamarle, que mejor representa lo que estaba imaginándome en mi visión artística. que está un poco atrofiada,
como podéis ver. Y ahora en teoría, en la misma pestaña de generar, yo podría subir esta imagen para condicionar
también la generación y pedirle que este pungolín pues está tocando la batería en un concierto de una discoteca. Vamos a
darle a generar. Ahora hablamos de los diferentes modelos que hay. Voy a seleccionar el modelo más avanzado, el
modelo Max, y le damos a generar. El resultado que no deberíamos de encontrar es justamente este pangolín, pues
tocando en un club nocturno. Y tenemos un resultado que está bastante guapo, pero que no es coherente con la imagen
que le hemos dado. Puede ser que esto sea por haber trabajado a nivel de generar, así que vamos a probar en la
pestaña de editar. Pues subo la misma imagen, añado el mismo prompt en la pestaña de edit, le damos a generar. El
promp en este caso es que el pangolín está ahora tocando la la batería en un concierto en un club nocturno. Y
efectivamente, ahora si vemos pues ya sabemos cómo lo tenemos que hacer en la pestaña de edit. El pangolín
perfectamente integrado con los elementos, con las gafas psicodélicas y la cresta verde, pues perfectamente
integrado en estas cuatro imágenes. Muy bien. Voy a seleccionar esta imagen y voy a pedirle que genere una ilustración
de esta imagen para una camiseta. Y de nuevo, en cuestión de segundos, pues tenemos, qué guapo, esta camiseta. Qué
ojo, eh, si hay algún proveedor de camisetas que me quiera mandar este diseño, pues ya os doy mi código postal.
Bastante guapo, ¿eh? De todas yo cogería esta de aquí, con lo cual vamos a cogerla, le damos a editar y vamos a
pedirle ahora que nos genere el retrato de una modelo llevando esta camiseta. Ya hemos pasado del caso de uso donde
estábamos probando la consistencia de personajes a ahora probar la consistencia de productos. Imaginad que
este es el producto de mi marca. Pues vamos a generar ahora imágenes de marketing, pues en este caso de una
modelo llevando mi producto. Y lo podemos ver perfectamente que en cuestión de segundos pues tenemos esta
imagen de aquí de nuestro pangolín que viene de una imagen original, en este caso vestido por una modelo. Hay una
cosa, hay un detalle que quiero que os deis cuenta porque es una de las limitaciones que os vais a encontrar con
este modelo y es que cuando de forma reiterativa trabajéis sobre una imagen editada, editada, editada, nos vamos a
encontrar con que hay una pérdida de calidad evidente. Yo espero que esto en futuras versiones de este modelo se
acabe solucionando, pero es una de las limitaciones que el propio Black Forest Laps pues nos indica aquí, ¿no? Como la
imagen, pues según vamos haciendo cada vez más edits, va teniendo este deterioro de calidad. Aún así, este
modelo es potentísimo. Es una herramienta de trabajo brutal porque, como habéis visto antes, pues Chat GPT
no nos ofrece esta capacidad de poder editar pues esta imagen pidiéndole que elimine el brazo de esta imagen y
hacerlo sin manipular, ¿no?, el el estilo de la cara, como hemos podido comprobar antes. Esto es algo que con
herramientas como Photoshop, haciendo tú la selección con el generative field, pues si lo podíamos solucionar, pero
fijaos que en este caso es tan rápido, es tan sencillo y funciona, que pues ojito que se puede convertir en una
herramienta que compita cara a cara con lo que muchas personas buscamos con herramientas de edición como Photoshop.
Vamos a pedirle ahora, porque esto es marca de la casa, que me ponga una buena melena, que me ponga el pelo largo. Y
vemos que ojito. Bueno, esto sería la versión de Dot SV en un universo paralelo. Bastante bien. Vamos a pedirle
ahora que aleje la cámara para ser un retrato de medio cuerpo, ¿vale? Y aquí lo tendríamos pues bastante bien. Fijaos
como de nuevo empezamos a perder un poquito de calidad en la imagen original. Aquí se ve, incluso se
aprecia, ¿no?, como está el recuadro de lo que sería la la imagen original y el Out Painting no ha logrado ni siquiera
machear esta pérdida de calidad, pero bueno, vemos que es muy coherente a la hora de generarme un cuerpo bastante
fuerte como estoy yo realmente. Aquí también muy bien sentado. Ese reloj no es el que tengo, pero se le parece
curiosamente. Y con esto pues podríamos seguir jugando, editando, editando imágenes de forma automática y que como
os decía antes es una herramienta muy potente en el contexto en el que nos encontramos en 2025 donde los modelos de
generación de vídeo pues cada vez son mucho más capaces a la hora de dar vida a aquellas imágenes que hayamos generado
con este tipo de herramientas, donde herramientas como Flux Context, pues lo que nos puede aportar es poder generar
variaciones donde mucha de esta apariencia estética de las imágenes se sostenga, se mantenga eh consistente.
permitiéndonos, por tanto, poder generar metrajes pues mucho más largos y coherentes, donde pueda pedirle que la
chica de aquí ahora está de pie, pues, sosteniendo una cámara Polaroid. Y donde, fijaos qué interesante, en este
prompt concreto, pues de las cuatro imágenes que hemos generado, esta no respondería exactamente al prompt que
hemos indicado. Esta tampoco, bueno, la chica está de pie, pero no es exactamente lo que buscábamos. Esta
tampoco, pero esta última imagen pues sí podría servirnos. Oye, en cuestión de segundos tenemos un resultado que
podríamos pasar ahora por herramientas como Clink 2.1. [Música]
Igualmente, como hemos dicho antes, si queremos conseguir resultados más robustos, pues tenemos que activar aquí
el prompting. Vamos a activarlo para ver si realmente esto nos da un resultado más cercano a lo que estábamos buscando.
Y efectivamente, pues fijaos como aquí las cuatro imágenes sí respeta esta idea del polaroid. Si trabajáis con Flux
Context dentro de la herramienta de Black Forest Laps, pues no nos olvidemos de marcar este prompt de aquí. Y esto me
lleva a contaros pues cómo podéis utilizar estos modelos. Habitual al modelo de negocio de Black Forest Labs,
esta familia de modelos Flux Contex pues viene en diferentes sabores. Tenemos la versión Max, la más potente, tenemos la
versión Pro, la versión intermedia y en un futuro va a salir una versión destilada, más pequeñita, más
experimental, que va a rendir un poquito peor, pero que esa sí va a ser open source, ¿vale? Este es el modelo de
negocio que permite que laboratorios como Black Forest Lab se pueda permitir darnos este tipo de tecnología en
abierto. Así que bueno, si queréis probar los modelos grandes, los más potentes, la versión Max y la versión
Pro, podéis hacerlo tanto en la propia plataforma de Black Forest Labs. Os voy a dejar el enlace directo abajo porque
me he dado cuenta que buscando en Google hay enlaces fraudulentos que están muy bien posicionados, así que mejor
directamente acudir pues al link que os voy a dejar o si no en cualquiera de las herramientas habituales donde se agregan
este tipo de modelos. Freepic, crea, Replicate, File, tenéis todos los enlaces en la web de Black Forest Labs.
Además, en la propia web de Black Forest Labs, pues os van a dejar usar unos créditos gratuitos. Son poquitos, pero
bueno, si queréis probar un poquito la herramienta como he estado siendo yo hoy, podéis probarla y si no, pues ya os
tocará esperar a la versión open source, que acabará llegando pues en las próximas semanas por parte de este
laboratorio. Dejo en vuestra mano la parte creativa de explorar las capacidades que este modelo puede
aportar, pues una imagen como esta y decir, quítame todo el texto secundario, déjame con el póster
original. Y bueno, ya vosotros os ponéis a explorar y si encontráis algún resultado, pues que sea interesante como
este de aquí, eh, me lo ponéis en redes sociales, que yo voy a estar muy atento. Hacía tiempo que no disfrutábamos tanto
con un modelo de generación de imágenes, flux, context. Y, chicos, chicas, muchas gracias por verme para conocer más sobre
este tipo de herramientas de inteligencia artificial. Os dejo por aquí un par de vídeos que podéis ojear y
nos vemos con más IA y más actualidad aquí en el DOT SSVA app. Y si algún día me da por volver a subir vídeos al canal
principal, pues también por allá en DCSV. Nos vemos con más. Co?
Heads up!
This summary and transcript were automatically generated using AI with the Free YouTube Transcript Summary Tool by LunaNotes.
Generate a summary for freeRelated Summaries

Ultimate Guide to Installing Forge UI and Flowing with Flux Models
Learn how to install Forge UI and explore various Flux models efficiently in this detailed guide.

Introducción a los Modelos de Lenguaje Grande: ¿Qué son y cómo funcionan?
Descubre cómo funcionan los modelos de lenguaje como ChatGPT y su impacto en la inteligencia artificial.

Mastering Inpainting with Stable Diffusion: Fix Mistakes and Enhance Your Images
Learn to fix mistakes and enhance images with Stable Diffusion's inpainting features effectively.

Creating Images with Transparency Using Stable Diffusion Forge UI
Learn how to generate stunning images with transparency using the Stable Diffusion Forge UI.

La Inteligencia Artificial y su Impacto en las Fintech
Explora cómo la Inteligencia Artificial transformará las fintech mediante personalización, administración de riesgos y más.
Most Viewed Summaries

A Comprehensive Guide to Using Stable Diffusion Forge UI
Explore the Stable Diffusion Forge UI, customizable settings, models, and more to enhance your image generation experience.

Mastering Inpainting with Stable Diffusion: Fix Mistakes and Enhance Your Images
Learn to fix mistakes and enhance images with Stable Diffusion's inpainting features effectively.

How to Use ChatGPT to Summarize YouTube Videos Efficiently
Learn how to summarize YouTube videos with ChatGPT in just a few simple steps.

Pag-unawa sa Denotasyon at Konotasyon sa Filipino 4
Alamin ang kahulugan ng denotasyon at konotasyon sa Filipino 4 kasama ang mga halimbawa at pagsasanay.

Ultimate Guide to Installing Forge UI and Flowing with Flux Models
Learn how to install Forge UI and explore various Flux models efficiently in this detailed guide.