Este proyecto tiene como objetivo generar poesía, cuentos o cualquier otro tipo de texto utilizando modelos de lenguaje preentrenados de Hugging Face.
Índice 📚
- Objetivo
- Características
- Instalación de Librerías Necesarias
- Uso del Código
- Consideraciones sobre Recursos
- Lecciones Aprendidas
- Otros Proyectos Posibles
- Contacto
Prototipado de Modelos de Lenguaje:
- Explorar y probar modelos preentrenados de Hugging Face.
Proyecto GeneraPoemasAI:
- Generar texto creativo utilizando modelos de lenguaje.
- Utiliza el modelo microsoft/phi-2 (un modelo causal de lenguaje preentrenado) para:
- Descargar y guardar un tokenizador y un modelo preentrenado.
- Cargar estos elementos en memoria para su modificación.
- Generar texto basado en una entrada específica proporcionada por el usuario.
- Entorno de Python: Para ese proyecto usamos Google Colabe y Codespace.
- Librerías: Se instalan todas las librerías usadas en el proyecto.
- Cargar Variables de Entorno:
-
El código utiliza la biblioteca python-dotenv para cargar variables de entorno desde un archivo .env ubicado en Google Drive.
-
Asegúrate de tener un archivo .env con tu token de Hugging Face:
HF_TOKEN=tu_token_de_hugging_face
- Cargar el Modelo y el Tokenizador:
- La función load_model_and_tokenizer carga el modelo y el tokenizador desde Hugging Face, utilizando el directorio de caché para almacenar los archivos descargados.
- Configura el pad_token_id si no está establecido y asegura que el modelo y el tokenizador estén alineados.
- Generar Texto:
- La función generate_text utiliza el modelo y el tokenizador para generar texto basado en una entrada específica. - Incluye la attention_mask para asegurar resultados confiables. - Define el número de tokens generados (max_new_tokens) para optimizar el uso de recursos.
- ***Ejemplo de uso:***
``input\_text = "Escribe un poema sobre la inteligencia artificial y su impacto en la humanidad." poem = generate\_text(input\_text) print("\nPoema generado:\n", poem)
Google Colab y Codespaces:
- Ambos entornos tienen limitaciones en cuanto a recursos cuando se utilizan con licencias gratuitas. Por esta razón, el código incluye funciones para liberar memoria y eliminar archivos de caché después de su uso.
Liberar Memoria:
- La función clear_cache_directory elimina los archivos del modelo del directorio de caché para liberar espacio.
Número de Tokens:
- Ajusta el valor de max_new_tokens según tus necesidades y recursos disponibles para evitar problemas de almacenamiento.
Manejo de Recursos:
- Aprendimos la importancia de liberar memoria y eliminar archivos de caché para optimizar el uso de recursos en entornos con limitaciones.
Uso de Modelos de Lenguaje:
- Exploramos cómo utilizar modelos preentrenados de Hugging Face para generar texto creativo.
Configuración de Parámetros:
- Aprendimos a configurar parámetros importantes como pad_token_id, attention_mask y max_new_tokens para obtener resultados confiables.
- Generación de Historias: Utilizar modelos de lenguaje para generar cuentos o novelas.
- Chatbots: Crear chatbots que puedan mantener conversaciones coherentes.
- Resúmenes de Texto: Generar resúmenes de artículos o documentos largos.
- Traducción Automática: Utilizar modelos multilingües para traducir texto entre diferentes idiomas.
Si tienes alguna pregunta o sugerencia, no dudes en contactarme.
¡Gracias por visitar mi proyecto!
Escrito por Erika Alvares.