Ray T.H.
@raytrapala
Ciudad del Carmen, México

@raytrapala
Ciudad del Carmen, México
Ray T.H.@raytrapala
Me surge la duda respecto el punto donde se encuentra ya que, no aparece la ruta docker, me aparece docker-desktop y dentro me aparece mounts.data Se puede ver la información de alguna manera ? es que ya no es una carpeta sino un archivo y me queda la duda, cómo puedo ver y-o editar los archivos entonces?
Ray T.H.@raytrapala
hubiera estado mejor que se hubiera realizado paso a paso el ejemplo
Ray T.H.@raytrapala
Si tuvieran que comprar un mes de una IA para desarrollar a full un proyecto pero, desde la creación de la documentación y arquitectura para pasar al código. ¿Qué usarían (Github Copilot, Gemini, Claude, ChatGPT, etc)? es que entre tantas ya no sé cuál comprar y, de GitHub Copilot veo tiene pro y pro+
Ray T.H.@raytrapala
Viendo esto, aún me surge la duda. En teoría usamos el RAG para darle contexto, en el ejemplo vimos que se le pregunta al LLM enviando solo el contexto que queremos que use. Ahora, no es lo mismo si usamos el protocolo MCP y directamente crear una "tool" para que acceda a la BD y responda usando nuestra BD?, entiendo que, ¿la diferencia es que en uno necesitamos programar y la otra no, correcto?
Ray T.H.@raytrapala
Otro consejo que empecé a usar gracias al curso es, dividir el proyecto por funcionalidades (divide y vencerás) y al final pedir un resumen para agregarlo como contexto en el siguiente chat donde sea necesario. Así tengo dividido todo por proyecto y funcionalidad.
Ray T.H.@raytrapala
Les recomiendo usar el chat de Google AI Studio en vez de Gemini. Aunque usan el mismo, me parece mucho mejor usar Google AI Studio. Se puede hacer más, como ingresar más información. Como dice Álvaro, usen varias y vean la calidad de las respuestas y, de todas, vean qué les dan de información y la estructura y, en base a las respuestas, mejoren el prompt. Eso lo empecé hacer con el curso y me ha ido muy bien. Pero NO OLVIDEN, REVISEN TODO LO QUE LES DA LA IA, porque alucina y, sobre todo, NotebookLM. Sirve bastante, pero las referencias de lo que responde tienden a alucinarse sino hasta la segunda, tecera o cuarta iteración ya da las rferencias correctas.
Ray T.H.@raytrapala
Lo único que sí debo comentar respecto a NotebookLM es que, cuando da las referencias (a veces) no las da bien En mi caso, le subo la documentación de la Ley de Obras Públicas de México en PDF y, me encuentra la información pero no el artículo. Siempre me da otro. Solo es para recordarles SIEMPRE REVISEN LO QUE LES DA LA IA
Ray T.H.@raytrapala
Los GPT que, se supone, son para hacer prompts. ¿Qué tienen de diferente con hacerlo a cómo en el ejemplo del min 4:20?
Ray T.H.@raytrapala
Entendería, entonces, que una system prompt me puede ayudar a estruturar la forma en que me entregue la respuesta?
Ray T.H.@raytrapala
Pues quedo claro solo me queda la duda que expuse en videos anteriores, si hice varios cambios en la rama equivocada, como los puedo guardar para crear la rama que corresponde a esos cambios y hacer commit en esa rama con los cambios que hice en la rama que no era?