Enable javascript in your browser for better experience. Need to know to enable it?

ºÚÁÏÃÅ

Volumen 31 | Octubre 2024

Lenguajes & Frameworks

  • Lenguajes & Frameworks

    Adoptar Probar Evaluar Resistir Adoptar Probar Evaluar Resistir
  • Nuevo
  • Modificado
  • Ning¨²n cambio

Lenguajes & Frameworks

Adoptar ?

  • 75. dbt

    sigue siendo una opci¨®n s¨®lida y sensata para implementar transformaciones de datos en pipelines ELT. Nos gusta que favorece un enfoque riguroso de ingenier¨ªa y habilita pr¨¢cticas como modularidad, capacidad de prueba y reutilizaci¨®n de transformaciones basadas en SQL. dbt se bien con muchos data warehouses en la nube, lakehouses y bases de datos, incluidos Snowflake, BigQuery, Redshift, Databricks y Postgres, y cuenta con un ecosistema saludable de paquetes comunitarios. El soporte nativo que se introdujo recientemente (en dbt core 1.8+ y la experiencia reci¨¦n introducida de dbt Cloudsin versi¨®n¡±) para las pruebas unitarias, refuerza a¨²n m¨¢s su posici¨®n en nuestro conjunto de herramientas. A nuestros equipos les gusta la nueva caracter¨ªstica de pruebas unitarias, ya que les permite definir f¨¢cilmente datos de prueba est¨¢ticos, establecer expectativas de salida y probar tanto los modos de actualizaci¨®n incremental como de actualizaci¨®n completa de sus pipelines. En muchos casos, esto les ha permitido retirar scripts desarrollados internamente, manteniendo el mismo nivel de calidad.

  • 76. Testcontainers

    En nuestra experiencia, es una opci¨®n predeterminada ¨²til para crear entornos confiables para ejecutar pruebas. Es una librer¨ªa adaptada a m¨²ltiples lenguajes, que ¡°Dockeriza¡± dependencias de pruebas comunes ¨C incluyendo diferentes tipos de bases de datos, tecnolog¨ªas de colas, servicios en la nube y dependencias de pruebas de interfaces de usuario, como navegadores web ¨C con la capacidad de ejecutar Dockerfiles personalizados cuando sea necesario. Recientemente, se lanz¨® una que permite la gesti¨®n visual de sesiones de pruebas y la capacidad de gestionar escenarios m¨¢s complejos, lo que nuestros equipos han encontrado muy ¨²til.

Probar ?

  • 77. CAP

    (en ingl¨¦s) es una biblioteca de .NET que implementa el . Cuando se trabaja con sistemas de mensajes distribuidos como RabbitMQ o Kafka es com¨²n encontrar dificultades para asegurar la atomicidad de las actualizaciones de bases de datos y publicaciones de eventos. CAP permite conseguir este objetivo guardando la petici¨®n de publicaci¨®n del evento en la misma transacci¨®n de base de datos que caus¨® el evento. Consideramos que CAP es muy ¨²til porque ofrece soporte para varias bases de datos y sistemas de mensajer¨ªa distribuidos al tiempo que garantiza la entrega de notificaciones al menos una vez.

  • 78. CARLA

    es un simulador de c¨®digo abierto para investigaci¨®n de conducci¨®n aut¨®noma, usado para probar este tipo de sistemas antes de su despliegue en producci¨®n. Ofrece flexibilidad para crear y reutilizar modelos 3D de veh¨ªculos, terrenos, humanos y animales, entre otros, haciendo posible simular escenarios como un peat¨®n entrando en la calzada o encontrarse con un veh¨ªculo que viene en sentido contrario a una velocidad determinada. El sistema de conducci¨®n aut¨®noma que se est¨¢ probando debe reconocer esos actores din¨¢micos y realizar las acciones apropiadas, como frenar. Nuestros equipos usan CARLA para el desarrollo y pruebas continuas de sistemas de conducci¨®n aut¨®noma.

  • 79. Databricks Asset Bundles

    (DABs), que en abril de 2024, se est¨¢ convirtiendo en la herramienta predilecta para empaquetar y desplegar recursos de Databricks que facilitan la adopci¨®n de t¨¦cnicas de desarrollo de software en nuestros equipos de datos. DABs soporta el empaquetamiento de la configuraci¨®n de flujos de trabajo y tareas, al igual que el c¨®digo a ser ejecutado en dichas tareas, como un paquete que puede ser desplegado a m¨²ltiples entornos mediante pipelines de CI/CD. Incluye plantillas para recursos com¨²nmente utilizados y tiene soporte para plantillas personalizadas, lo que permite la creaci¨®n de plantillas de servicios a la medida para proyectos de ingenier¨ªa de datos y ML. Nuestros equipos est¨¢n incrementalmente adoptando esta tecnolog¨ªa como una parte clave de sus workflows de ingenier¨ªa. A pesar de que DABs incluye plantillas para notebooks y soporta desplegarlos en producci¨®n, no recomendamos llevar notebooks a producci¨®n. En su lugar impulsamos la creaci¨®n de c¨®digo para producci¨®n de manera intencional con las pr¨¢cticas de resiliencia, soporte, escalabilidad y mantenimiento necesarias para este tipo de trabajo.

  • 80. Instructor

    Cuando usamos bots de conversaci¨®n basados en modelos de lenguaje de gran tama?o (LLM, por sus siglas en ingl¨¦s) como usuarios finales, generalmente devuelven una respuesta no estructurada en lenguaje natural. Cuando construimos aplicaciones con IA generativa que son algo m¨¢s que bots de conversaci¨®n, puede ser ¨²til que el bot devuelva una respuesta estructurada en JSON, YAML u otros formatos para despu¨¦s procesar esta respuesta y utilizarla en la aplicaci¨®n. Sin embargo, ya que los LLM no son deterministas, puede que no siempre hagan lo que les pedimos. es una biblioteca que nos ayuda a solicitar salida estructurada a LLMs. Se puede definir la estructura de salida deseada y configurar reintentos si el modelo no devuelve una respuesta en el formato solicitado. Adem¨¢s, ya que la experiencia de usuario ¨®ptima con LLMs suele ser transmitir los resultados seg¨²n se generan en lugar de esperar a tener la respuesta completa, Instructor tambi¨¦n se encarga de procesar estructuras parciales a partir de un flujo de datos.

  • 81. Kedro

    ha mejorado significativamente como herramienta para MLOps y ha mantenido su enfoque en pr¨¢cticas de modularidad e ingenier¨ªa, lo que nos gustaba desde el inicio. Un paso que resalta su modularidad es la introducci¨®n del paquete aut¨®nomo , que desacopla el c¨®digo de los datos. Kedro ha a?adido mejoras en su CLI, plantillas de inicio de proyecto y capacidades de telemetr¨ªa. Adicionalmente, el reciente lanzamiento de una extensi¨®n en VS Code es un buen impulso para la experiencia del desarrollador.

  • 82. LiteLLM

    es una librer¨ªa para facilitar la integraci¨®n con varias APIs de proveedores de modelos de lenguaje de gran tama?o (LLM, por sus siglas en ingl¨¦s de Large Language Model) que estandariza las interacciones mediante un . Tiene soporte para un amplio n¨²mero de y ofrece una interfaz unificada para completar, hacer embedding y generar im¨¢genes. LiteLLM simplifica la integraci¨®n al traducir las entradas para que encajen con los requisitos de cada endpoint espec¨ªfico de cada proveedor. Tambi¨¦n ofrece un framework que es necesario para implementar muchas de las caracter¨ªsticas operacionales que necesita una aplicaci¨®n en producci¨®n, como caching, logging, rate limiting y balanceo de carga. Esto asegura una operaci¨®n uniforme entre distintos LLMs. Nuestros equipos utilizan LiteLLM para facilitar el cambio entre distintos modelos, algo necesario en el contexto actual donde los modelos evolucionan r¨¢pidamente. Es importante tener en cuenta que al hacer esto, las respuestas de los modelos a prompts id¨¦nticos var¨ªan, lo que indica que un m¨¦todo de invocaci¨®n consistente por s¨ª solo puede no ser suficiente para optimizar por completo el rendimiento al completar texto. Adem¨¢s, cada modelo implementa funcionalidades add-on de forma ¨²nica, por lo que una sola interfaz puede no ser suficiente para todos. Por ejemplo, uno de nuestros equipos tuvo dificultades en aprovechar la invocaci¨®n de funciones a un modelo AWS Bedrock mediante proxying a trav¨¦s de LiteLLM.

  • 83. LlamaIndex

    incluye motores que permiten dise?ar aplicaciones LLM espec¨ªficas de dominio, de contexto aumentado y admite tareas como la ingesti¨®n de datos, la indexaci¨®n por vectores y la respuesta a preguntas en lenguaje natural sobre documentos, por mencionar algunas. Nuestros equipos utilizaron LlamaIndex para construir un pipeline de generaci¨®n mejorada por recuperaci¨®n (RAG) que automatiza la ingesta de documentos, indexa las representaciones vectoriales de los documentos y consulta estas representaciones seg¨²n las entradas del usuario. Al utilizar , tu puedes extender y personalizar los ³¾¨®»å³Ü±ô´Ç²õ de LlamaIndex para poder ajustarse a tus necesidades y as¨ª construir, por ejemplo, las aplicaci ones LLM con tus LLMs preferidos, representaciones vectoriales y proveedores de almacenamiento de vectores preferidos.

  • 84. LLM Guardrails

    LLM Guardrails son un conjunto de pautas, pol¨ªticas o filtros dise?ados para evitar que los modelos de lenguaje de gran tama?o (LLMs) generen contenido da?ino, enga?oso o irrelevante. Las barreras tambi¨¦n pueden usarse para proteger a las aplicaciones LLM de usuarios malintencionados que intenten abusar del sistema mediante t¨¦cnicas como la manipulaci¨®n de inputs. Act¨²an como una red de seguridad al establecer l¨ªmites para que el modelo procese y genere contenido. Existen algunos frameworks emergentes en este ¨¢mbito como NeMo Guardrails, y que nuestros equipos han encontrado ¨²tiles. Recomendamos que toda aplicaci¨®n de LLM tenga guardrails implementadas y que sus reglas y pol¨ªticas se mejoren continuamente. Son cruciales para construir aplicaciones de chat responsables y confiables con LLMs.

  • 85. Medusa

    En nuestra experiencia, la mayor¨ªa de soluciones de comercio electr¨®nico para construir p¨¢ginas web de compras caen en la trampa del 80/20 ¡ª podemos construir f¨¢cilmente el 80% de lo que queremos pero no podemos hacer nada sobre el 20% restante. ofrece un buen balance. Es una plataforma de comercio de c¨®digo abierto altamente personalizable que permite a los desarrolladores crear experiencias de compra ¨²nicas y a la medida que pueden ejecutarse localmente o en la plataforma de Medusa. Construido con Next.js y PostgreSQL, Medusa acelera el proceso de desarrollo con su amplio conjunto de ³¾¨®»å³Ü±ô´Ç²õ ¡ª desde un carrito de compras b¨¢sico y manejo de ¨®rdenes hasta funciones avanzadas como ³¾¨®»å³Ü±ô´Ç²õ de tarjetas de regalo y c¨¢lculo de impuestos para diferentes regiones. Hemos encontrado a Medusa como un valioso framework y lo hemos aplicado en algunos proyectos.

  • 86. Pkl

    es un lenguaje y herramienta de configuraci¨®n de c¨®digo abierto, creado inicialmente para uso interno en Apple. Su funcionalidad principal es su tipo y sistema de validaci¨®n, que permite detectar errores de configuraci¨®n antes de la ejecuci¨®n del despliegue. Pkl ha permitido a nuestros equipos reducir la duplicidad de c¨®digo (en casos como sobrescritura de ambientes) y realizar la validaci¨®n antes de aplicar los cambios de configuraci¨®n a los ambientes en vivo. Genera archivos JSON, PLIST, YAML y .properties; y cuenta con una amplia integraci¨®n de IDE y lenguaje, incluida la generaci¨®n de c¨®digo.

  • 87. ROS 2

    Es un framework de c¨®digo abierto dise?ado para el desarrollo de sistemas rob¨®ticos. Proporciona un conjunto de librer¨ªas y herramientas que permiten la implementaci¨®n modular de aplicaciones, cubriendo funciones como la comunicaci¨®n entre procesos, la ejecuci¨®n multihilo y la calidad de servicio. ROS 2 se basa en su predecesor y ofrece funciones mejoradas en tiempo real, mayor modularidad, mayor compatibilidad con diversas plataformas y sensible defaults. ROS 2 est¨¢ ganando aceptaci¨®n en el sector de la industria automotriz; su arquitectura basada en nodos y su modelo de comunicaci¨®n basado en t¨®picos resultan especialmente atractivos para fabricantes de aplicaciones complejas y en evoluci¨®n dentro del veh¨ªculo, como la funcionalidad de conducci¨®n aut¨®noma.

  • 88. seL4

    En los veh¨ªculos definidos por software (SDV) u otros escenarios cr¨ªticos para la seguridad, la estabilidad en tiempo real del sistema operativo es crucial. Unas pocas empresas monopolizan este campo debido a sus elevadas barreras de entrada, por lo que soluciones de c¨®digo abierto como son muy preciadas. seL4 es un micron¨²cleo de sistema operativo de alto rendimiento y garant¨ªa. Utiliza m¨¦todos de para garantizar ?matem¨¢ticamente? que el comportamiento del sistema operativo se ajusta a la especificaci¨®n. Su arquitectura de micron¨²cleo tambi¨¦n minimiza las responsabilidades centrales para garantizar la estabilidad del sistema. Hemos visto a empresas de EV como NIO participar en el ecosistema seL4, y es posible que en el futuro se produzcan m¨¢s desarrollos en este ¨¢mbito.

  • 89. SetFit

    La mayor¨ªa de las herramientas basadas en IA disponibles actualmente, son generativas ¡ª generan textos e im¨¢genes y usan transformers generativos pre-entrenados (GPTs por sus siglas en ingl¨¦s) para hacerlo. Para casos de uso que requieren trabajar con texto existente ¡ª para clasificar fragmentos de texto o determinar intenci¨®n ¡ª los transformers de oraciones son la herramienta a elegir. En este contexto es un framework para el fine-tuning de transformers de oraciones. Nos gusta SetFit porque usa aprendizaje contrastivo para separar diferentes clases de intenci¨®n, a menudo logrando una separaci¨®n clara con un conjunto peque?o de ejemplos, 25 o incluso menos. Los transformers de oraciones tambi¨¦n pueden jugar un rol en un sistema de IA generativa. Hemos utilizado con ¨¦xito SetFit para la detecci¨®n de intenci¨®n en un chatbot de atenci¨®n al cliente que usa un LLM; y a pesar de que conocemos la API de moderaci¨®n de OpenAI, hemos elegido un clasificador basado en SetFit para realizar fine-tuning adicional y obtener un filtrado m¨¢s estricto.

  • 90. vLLM

    es un motor de inferencia de alto rendimiento y gesti¨®n de memoria eficiente para LLM que puede ejecutarse en la nube o en servidores propios. Admite perfectamente m¨²ltiples y modelos populares de c¨®digo abierto. Nuestros equipos despliegan tareas vLLM en plataformas GPU como NVIDIA DGX e Intel HPC, alojando modelos como por ejemplo , , y para la asistencia en desarrollo de c¨®digo, b¨²squeda de conocimiento e interacciones de bases de datos en lenguaje natural. vLLM es compatible con el est¨¢ndar de OpenAI SDK, facilitando un servicio de modelo consistente. de Azure utiliza un contenedor de inferencia personalizado para mejorar el rendimiento del servicio de modelos, con vLLM como motor de inferencia predeterminado debido a su alto rendimiento y gesti¨®n eficiente de la memoria. El framework vLLM est¨¢ emergiendo como el modelo predeterminado de despliegues a larga escala.

Evaluar ?

  • 91. Apache XTable?

    Entre los formatos de tabla abiertos disponibles que soportan lakehouses ¡ª como Apache Iceberg, Delta y Hudi ¡ª no ha surgido un claro ganador. En cambio, estamos viendo herramientas que permiten la interoperabilidad entre estos formatos. Por ejemplo, soporta la interoperabilidad unidireccional al permitir que los clientes de Hudi y Iceberg lean tablas de Delta. Otro nuevo participante en este espacio es , un proyecto incubadora de Apache que facilita la interoperabilidad omnidireccional entre Hudi, Delta y Iceberg. Al igual que UniForm, convierte los metadatos entre estos formatos sin duplicar los datos subyacentes. XTable podr¨ªa ser ¨²til para equipos que est¨¦n experimentando con diferentes formatos de tablas. Sin embargo, para un uso a largo plazo, dada la diferencia de las caracter¨ªsticas entre estos formatos, depender en gran medida de la interoperabilidad omnidireccional podr¨ªa hacer que los equipos solo puedan utilizar el ¡°m¨ªnimo com¨²n denominador¡± de las funcionalidades.

  • 92. dbldatagen

    Preparar los datos de prueba para ingenier¨ªa de datos es un gran desaf¨ªo. Transferir datos desde producci¨®n a ambientes de prueba puede ser riesgoso, por lo que los equipos a menudo optan por utilizar datos falsos o sint¨¦ticos en su lugar. En este Radar, exploramos enfoques novedosos como datos sint¨¦ticos para pruebas y entrenamiento de modelos. Sin embargo, en muchas ocasiones, la generaci¨®n procedural de bajo costo es suficiente.

    es una de esas herramientas; se trata de una biblioteca de Python para generar datos sint¨¦ticos dentro del entorno de Databricks, utilizada para pruebas, benchmarking, demos y muchos otros usos. dbldatagen puede generar datos sint¨¦ticos a gran escala, alcanzando hasta miles de millones de filas en cuesti¨®n de minutos, y soporta varios escenarios como m¨²ltiples tablas, change data capture y operaciones de merge/join. Maneja bien los tipos primitivos de Spark SQL, genera rangos y valores discretos, y aplica distribuciones espec¨ªficas. Al crear datos sint¨¦ticos utilizando el ecosistema de Databricks, dbldatagen es una opci¨®n que vale la pena evaluar.

  • 93. DeepEval

    Es un framework de evaluaci¨®n de c¨®digo abierto basado en Python, utilizado para evaluar el rendimiento de los LLM. Puedes usarlo para evaluar la generaci¨®n aumentada por recuperaci¨®n (RAG) y otros tipos de aplicaciones creadas con frameworks populares como LlamaIndex o LangChain. Tambi¨¦n sirve para establecer l¨ªneas base y benchmark al comparar diferentes modelos de acuerdo a tus necesidades. DeepEval proporciona un conjunto completo de m¨¦tricas y funciones para evaluar el rendimiento de los LLM, incluida la detecci¨®n de alucinaciones, la relevancia de las respuestas y la optimizaci¨®n de h¨ªper par¨¢metros. Ofrece integraci¨®n con pytest y, junto con sus aserciones, puedes f¨¢cilmente integrar el conjunto de pruebas en un pipeline de integraci¨®n continua (CI). Si trabajas con LLM, considera probar DeepEval para mejorar tu proceso de pruebas y garantizar la fiabilidad de tus aplicaciones.

  • 94. DSPy

    La mayor¨ªa de las aplicaciones basadas en modelos de lenguaje hoy en d¨ªa conf¨ªan en plantillas de prompts ajustadas manualmente para tareas espec¨ªficas. , un framework para desarrollar tales aplicaciones, toma un enfoque diferente que prescinde de la ingenier¨ªa de prompts directa. En su lugar, introduce abstracciones de m¨¢s alto nivel orientadas en el flujo del programa (a trav¨¦s de ³¾¨®»å³Ü±ô´Ç²õ que se pueden poner en capas unos encima de otros), m¨¦tricas que optimizar y datos con los que entrenar/probar. Entonces optimiza los prompts y/o pesos del modelo de lenguaje subyacente bas¨¢ndose en esas m¨¦tricas que se han definido. El c¨®digo resultante se parece mucho m¨¢s al entrenamiento de redes neuronales con PyTorch. Encontramos que el enfoque que toma es estimulante por ser diferente y pensamos que vale la pena experimentar con ¨¦l.

  • 95. Flutter para la Web

    Flutter es conocido por su soporte multiplataforma para aplicaciones iOS y Android. Ahora, se ha expandido a m¨¢s plataformas. Ya hemos evaluado Flutter para la Web : nos permite crear aplicaciones para iOS, Android y el navegador a partir de la misma base de c¨®digo. No todas las aplicaciones web tienen sentido en Flutter, pero creemos que Flutter es especialmente adecuado para casos como aplicaciones web progresivas, y la conversi¨®n de aplicaciones m¨®viles Flutter existentes a la web. Flutter ya admit¨ªa WebAssembly (WASM) como target de compilaci¨®n en su canal experimental, lo que significa que estaba en desarrollo activo con posibles errores y problemas de rendimiento. Las versiones m¨¢s recientes lo han hecho estable. El rendimiento de las aplicaciones web Flutter compiladas con target WASM es muy superior al de su target JavaScript. El rendimiento casi nativo en diferentes plataformas es tambi¨¦n la raz¨®n por la que muchos desarrolladores eligen inicialmente Flutter.

  • 96. kotaemon

    es una herramienta y framework de c¨®digo abierto basado en RAG (generaci¨®n aumentada por recuperaci¨®n, por sus siglas en ingl¨¦s de retrieval-augmented generation) para construir aplicaciones de Q&A y documentos de bases de conocimiento. Puede entender varios tipos de documento, incluyendo formatos PDF y DOC, y provee una interfaz web basada en Gradio, la que permite a los usuarios organizar e interactuar con la base de conocimiento a trav¨¦s de una interfaz de chat. Incluye pipelines de RAG con un vector store y puede ser extendido con SDKs. kotaemon tambi¨¦n cita los documentos fuente en sus respuestas, junto a vistas previas de web embebidas y un grado de relevancia. Para cualquiera que desee crear una aplicaci¨®n Q&A con documentos basados en RAG, este framework personalizable es un muy buen punto de partida.

  • 97. Lenis

    es una librer¨ªa ligera y poderosa para obtener un desplazamiento (scrolling) fluido en navegadores modernos. Habilita experiencias como sincronizar el desplazamiento con WebGL o efectos de paralaje. Es ideal para equipos que construyen p¨¢ginas con interacciones que utilizan desplazamiento fluido. Nuestras desarrolladoras han visto que Lenis ofrece una experiencia transparente y f¨¢cil de usar al crear desplazamientos fluidos. De todas maneras, la librer¨ªa puede tener ciertos problemas con la accesibilidad, particularmente con el desplazamiento horizontal y vertical, lo que puede confundir a usuarios con discapacidades. Aunque es atractivo visualmente, necesita una implementaci¨®n adecuada para mantener la accesibilidad.

  • 98. LLMLingua

    mejora la eficiencia de los LLMs al comprimir las entradas del usuario usando un modelo de lenguaje peque?o para eliminar los tokens no esenciales con una p¨¦rdida m¨ªnima de rendimiento. Este permite a los LLMs mantener el raciocinio y aprendizaje dentro del contexto mientras procesan eficientemente entradas m¨¢s largas, afrontando retos como eficiencia de costos, latencia de inferencia y gesti¨®n de contexto. LLMLingua es perfecto para optimizar el rendimiento de inferencia de los LLM, ya que es compatible con distintos LLMs, no necesita entrenamiento adicional y soporta frameworks como LLamaIndex.

  • 99. Microsoft Autogen

    es un framework de c¨®digo abierto que simplifica la creaci¨®n y orquestaci¨®n de agentes de IA, permitiendo la colaboraci¨®n entre m¨²ltiples agentes para resolver tareas complejas. Soporta tanto flujos de trabajo aut¨®nomos como aquellos con intervenci¨®n humana, ofreciendo compatibilidad con una variedad de modelos de lenguaje de gran tama?o (LLMs) y herramientas para la interacci¨®n entre agentes. Uno de nuestros equipos utiliz¨® Autogen en un cliente para construir una plataforma impulsada por IA en la que cada agente representaba una habilidad espec¨ªfica, como la generaci¨®n de c¨®digo, la revisi¨®n de c¨®digo o el resumen de documentaci¨®n. El framework permiti¨® al equipo crear nuevos agentes de manera fluida y consistente, definiendo el modelo y el flujo de trabajo adecuados. Utilizaron LlamaIndex para orquestar los flujos de trabajo, permitiendo a los agentes gestionar tareas como la b¨²squeda de productos y sugerencias de c¨®digo de manera eficiente. Aunque Autogen ha mostrado ser prometedor, especialmente en entornos de producci¨®n, persisten preocupaciones sobre la escalabilidad y la gesti¨®n de la complejidad a medida que se a?aden m¨¢s agentes. Se necesita una evaluaci¨®n adicional para determinar su viabilidad a largo plazo en la escalabilidad de sistemas basados en agentes.

  • 100. Pingora

    es un framework de Rust para construir servicios de red r¨¢pidos, fiables y programables. Originalmente desarrollado por Cloudflare para , Pingora ya est¨¢ mostrando un gran potencial, ya que los nuevos proxies como se est¨¢n construyendo sobre sus cimientos. Aunque la mayor¨ªa de nosotros no nos enfrentamos al nivel de escala de Cloudflare, nos encontramos con escenarios en los que el enrutamiento flexible de la capa de aplicaci¨®n es esencial para nuestros servicios de red. La arquitectura de Pingora nos permite aprovechar toda la potencia de Rust en estas situaciones sin sacrificar la seguridad ni el rendimiento.

  • 101. Ragas

    es un framework dise?ado para evaluar el rendimiento de los pipelines de [generaci¨®n aumentada por recuperaci¨®n (RAG por sus siglas en ingl¨¦s)], abordando el desaf¨ªo de evaluar tanto los componentes de recuperaci¨®n como los de generaci¨®n en estos sistemas. Proporciona m¨¦tricas estructuradas como fidelidad, relevancia de la respuesta y utilizaci¨®n del contexto, que ayudan a evaluar la efectividad de los sistemas basados en RAG. Nuestros desarrolladores lo encontraron ¨²til para realizar evaluaciones peri¨®dicas con el fin de afinar par¨¢metros como las recuperaciones top-k y los modelos de incrustaci¨®n. Algunos equipos han integrado Ragas en pipelines que se ejecutan diariamente, siempre que cambie la plantilla de prompts o el modelo. Aunque sus m¨¦tricas ofrecen informaci¨®n valiosa, nos preocupa que el framework no capture todas las sutilezas e interacciones complejas de los pipelines RAG, y recomendamos considerar otros frameworks de evaluaci¨®n adicionales. No obstante, Ragas destaca por su capacidad de optimizar la evaluaci¨®n de RAG en entornos de producci¨®n, ofreciendo valiosas mejoras basadas en datos.

  • 102. Score

    Muchas organizaciones que implementan sus propias plataformas internas de desarrollo tienden a crear sus propios sistemas de platform orchestration para hacer cumplir los est¨¢ndares organizacionales entre los desarrolladores y sus equipos de alojamiento de plataformas. Sin embargo, las caracter¨ªsticas b¨¢sicas de una plataforma de despliegue pavimentada para alojar cargas de trabajo en contenedores de manera segura, consistente y conforme son similares de una organizaci¨®n a otra. ?No ser¨ªa genial si tuvi¨¦ramos un lenguaje compartido para especificar esos requisitos? est¨¢ mostrando cierto potencial para convertirse en un est¨¢ndar en este ¨¢mbito. Es un lenguaje declarativo en formato YAML que describe c¨®mo debe desplegarse una carga de trabajo en contenedores y qu¨¦ servicios y par¨¢metros espec¨ªficos necesitar¨¢ para ejecutarse. Score fue desarrollado originalmente por Humanitec como el lenguaje de configuraci¨®n para su producto , pero ahora est¨¢ bajo la custodia de la como un proyecto de c¨®digo abierto. Con el respaldo de la CNCF, Score tiene el potencial de ser m¨¢s ampliamente utilizado m¨¢s all¨¢ del producto de Humanitec. Ha sido lanzado con dos implementaciones de referencia: Kubernetes y Docker Compose. Esperamos que la extensibilidad de Score llevar¨¢ a tener contribuciones de la comunidad para otras plataformas. Score ciertamente tiene un parecido con la especificaci¨®n Open Application Model (OAM) para Kubevela, pero est¨¢ m¨¢s enfocado en el despliegue de cargas de trabajo en contenedores que en la aplicaci¨®n completa. Tambi¨¦n hay cierta superposici¨®n con SST, pero SST est¨¢ m¨¢s enfocado en el despliegue directo en una infraestructura en la nube en lugar de una plataforma interna de ingenier¨ªa. Estaremos observando con inter¨¦s la evoluci¨®n de Score.

  • 103. shadcn

    desaf¨ªa el concepto tradicional de bibliotecas de componentes al ofrecer componentes reutilizables, de tipo copiar-y-pegar que se convierten en parte de tu c¨®digo fuente. Este enfoque brinda a los equipos total propiedad y control, lo que permite una f¨¢cil personalizaci¨®n y extensi¨®n ¨C ¨¢reas donde las librer¨ªas m¨¢s convencionales y populares como y Chakra UI a menudo quedan cortas. Creada con y Tailwind CSS, shadcn se integra perfectamente en cualquier aplicaci¨®n basada en React, lo que lo convierte en una buena opci¨®n para proyectos que priorizan el control y la extensibilidad. Incluye una para ayudar en el proceso de copiar y pegar los componentes en el proyecto. Sus beneficios tambi¨¦n incluyen la reducci¨®n de dependencias ocultas y evitar implementaciones estrechamente acopladas, raz¨®n por la cual shadcn est¨¢ ganando terreno como una alternativa convincente para los equipos que buscan un enfoque m¨¢s pr¨¢ctico y adaptable para el desarrollo front-end.

  • 104. Slint

    es un framework de GUI declarativo para construir interfaces de usuario nativas para aplicaciones en Rust, C++ o JavaScript. Aunque es un framework multiplataforma de UI con caracter¨ªsticas importantes como vista previa en vivo, dise?o de UI responsivo, y una experiencia de usuario nativa, tambi¨¦n nos gustar¨ªa resaltar principalmente su utilidad para sistemas embebidos. Los equipos que desarrollan aplicaciones embebidas han enfrentado tradicionalmente un n¨²mero limitado de opciones para el desarrollo de la UI, cada una con sus propias implicaciones. Slint ofrece el balance perfecto entre la experiencia del desarrollador y el desempe?o, utilizando un lenguaje de marcado f¨¢cil de usar, similar al HTML y compilado directamente a c¨®digo m¨¢quina. En tiempo de ejecuci¨®n, tambi¨¦n cuenta con un bajo consumo de recursos, lo cual es cr¨ªtico para los sistemas embebidos. En resumen, nos gusta Slint porque trae pr¨¢cticas comprobadas del desarrollo web y m¨®vil al ecosistema embebido.

  • 105. SST

    es un framework para desplegar aplicaciones dentro del ambiente en la nube junto con proporcionar todos los servicios que la aplicaci¨®n necesite para ejecutarse. SST no es solo una herramienta IaC; es un framework con una API en TypeScript que te permite definir el ambiente de tu aplicaci¨®n, un servicio que despliega tu aplicaci¨®n cuando se ejecuta un Git Push as¨ª como una consola GUI para administrar la aplicaci¨®n resultante e invocar las funciones de administraci¨®n de SST. Aunque SST estaba originalmente basado en AWS Cloud Formation y CDK, su ¨²ltima versi¨®n ha sido implementada sobre Terraform y Pulumi para que, en teor¨ªa, sea agn¨®stico a la nube. SST tiene soporte nativo para el despliegue de varios frameworks estandar de web, incluidos Next.js y Remix, pero tambi¨¦n soporta aplicaciones API sin interfaz gr¨¢fica. SST parece pertenecer a una categor¨ªa propia. Si bien tiene cierta similitud con herramientas de orquestaci¨®n de plataforma como Kubevela, tambi¨¦n provee conveniencias para los desarrolladores, como un modo en vivo que env¨ªa las invocaciones de AWS Lambda a una funci¨®n que se ejecuta en la m¨¢quina local del desarrollador. En este momento, SST sigue siendo una curiosidad, pero es un proyecto y una categor¨ªa de herramientas que vale la pena seguir a medida que evoluciona.

Resistir ?

No hay blips

?No encontraste algo que esperabas ver?

?

Cada edici¨®n del Radar presenta noticias que reflejan lo que hemos encontrado durante los seis meses anteriores. Es posible que ya hayamos cubierto lo que busca en un?Radar anterior. A veces seleccionamos cosas simplemente porque hay demasiadas de las que hablar. Tambi¨¦n es posible que falte alg¨²n dato porque el Radar refleja nuestra experiencia, no se basa en un an¨¢lisis exhaustivo del mercado.

Suscr¨ªbete al bolet¨ªn informativo de Technology Radar

?

?

?

?

Suscr¨ªbete ahora

Visita nuestro archivo para leer los vol¨²menes anteriores