Banner de perfil
0

Ray T.H.

@raytrapala

Ciudad del Carmen, México

Ray T.H.@raytrapala

Me surge la duda respecto el punto donde se encuentra ya que, no aparece la ruta docker, me aparece docker-desktop y dentro me aparece mounts.data Se puede ver la información de alguna manera ? es que ya no es una carpeta sino un archivo y me queda la duda, cómo puedo ver y-o editar los archivos entonces?


Ray T.H.@raytrapala

hubiera estado mejor que se hubiera realizado paso a paso el ejemplo


Ray T.H.@raytrapala

Si tuvieran que comprar un mes de una IA para desarrollar a full un proyecto pero, desde la creación de la documentación y arquitectura para pasar al código. ¿Qué usarían (Github Copilot, Gemini, Claude, ChatGPT, etc)? es que entre tantas ya no sé cuál comprar y, de GitHub Copilot veo tiene pro y pro+


Ray T.H.@raytrapala

Viendo esto, aún me surge la duda. En teoría usamos el RAG para darle contexto, en el ejemplo vimos que se le pregunta al LLM enviando solo el contexto que queremos que use. Ahora, no es lo mismo si usamos el protocolo MCP y directamente crear una "tool" para que acceda a la BD y responda usando nuestra BD?, entiendo que, ¿la diferencia es que en uno necesitamos programar y la otra no, correcto?


Ray T.H.@raytrapala

Otro consejo que empecé a usar gracias al curso es, dividir el proyecto por funcionalidades (divide y vencerás) y al final pedir un resumen para agregarlo como contexto en el siguiente chat donde sea necesario. Así tengo dividido todo por proyecto y funcionalidad.


Ray T.H.@raytrapala

Les recomiendo usar el chat de Google AI Studio en vez de Gemini. Aunque usan el mismo, me parece mucho mejor usar Google AI Studio. Se puede hacer más, como ingresar más información. Como dice Álvaro, usen varias y vean la calidad de las respuestas y, de todas, vean qué les dan de información y la estructura y, en base a las respuestas, mejoren el prompt. Eso lo empecé hacer con el curso y me ha ido muy bien. Pero NO OLVIDEN, REVISEN TODO LO QUE LES DA LA IA, porque alucina y, sobre todo, NotebookLM. Sirve bastante, pero las referencias de lo que responde tienden a alucinarse sino hasta la segunda, tecera o cuarta iteración ya da las rferencias correctas.


Ray T.H.@raytrapala

Lo único que sí debo comentar respecto a NotebookLM es que, cuando da las referencias (a veces) no las da bien En mi caso, le subo la documentación de la Ley de Obras Públicas de México en PDF y, me encuentra la información pero no el artículo. Siempre me da otro. Solo es para recordarles SIEMPRE REVISEN LO QUE LES DA LA IA


Ray T.H.@raytrapala

Los GPT que, se supone, son para hacer prompts. ¿Qué tienen de diferente con hacerlo a cómo en el ejemplo del min 4:20?


Ray T.H.@raytrapala

Entendería, entonces, que una system prompt me puede ayudar a estruturar la forma en que me entregue la respuesta?


Ray T.H.@raytrapala

Pues quedo claro solo me queda la duda que expuse en videos anteriores, si hice varios cambios en la rama equivocada, como los puedo guardar para crear la rama que corresponde a esos cambios y hacer commit en esa rama con los cambios que hice en la rama que no era?