Linguagens & Frameworks
Adote
-
75. dbt
Continuamos a considerar o como uma op??o s¨®lida e sensata para implementar transforma??es de dados em pipelines de ELT. Gostamos do fato de que ele preza pelo rigor da engenharia e permite pr¨¢ticas como modularidade, capacidade de teste e reutiliza??o de transforma??es baseadas em SQL. O dbt bem com muitos data warehouses, lakehouses e bancos de dados em nuvem, incluindo Snowflake, BigQuery, Redshift, Databricks e Postgres, e tem um ecossistema saud¨¢vel de pacotes comunit¨¢rios em torno dele. O suporte nativo introduzido recentemente (no dbt core 1.8+ e na rec¨¦m-introduzida experi¨ºncia ¡°sem vers?o¡± do dbt Cloud) para testes unit¨¢rios fortalece ainda mais sua posi??o em nossa caixa de ferramentas. Nossas equipes valorizam o fato de a nova funcionalidade de teste unit¨¢rio permitir que elas definam facilmente os dados de teste est¨¢ticos, configurem as expectativas de sa¨ªda e testem os modos incremental e de atualiza??o total de seus pipelines. Em muitos casos, isso permitiu que elas descontinuassem os scripts desenvolvidos internamente, mantendo o mesmo n¨ªvel de qualidade.
-
76. Testcontainers
Em nossa experi¨ºncia, s?o uma op??o padr?o ¨²til para criar um ambiente confi¨¢vel para a execu??o de testes. Trata-se de uma biblioteca, adaptada para v¨¢rias linguagens, que Dockeriza depend¨ºncias de teste comuns ¨C incluindo v¨¢rios tipos de bancos de dados, tecnologias de fila, servi?os de nuvem e depend¨ºncias de teste de interface de usabilidade, como navegadores da web ¨C com a capacidade de executar Dockerfiles personalizados quando necess¨¢rio. Recentemente, foi lan?ada uma que permite o gerenciamento visual de sess?es de teste e a capacidade de gerenciar cen¨¢rios mais complexos, o que nossas equipes consideraram muito ¨²til.
Experimente
-
77. CAP
¨¦ uma biblioteca .NET que implementa o . Ao trabalhar com sistemas de mensageria distribu¨ªda como RabbitMQ ou Kafka, frequentemente enfrentamos o desafio de garantir que as atualiza??es no banco de dados e as publica??es de eventos sejam realizadas de forma at?mica. A biblioteca CAP resolve esse desafio registrando a inten??o de publicar o evento na mesma transa??o de banco de dados que o gerou. Consideramos a CAP bastante ¨²til, pois oferece suporte a v¨¢rios bancos de dados e plataformas de mensageria, garantindo a entrega pelo menos uma vez.
-
78. CARLA
¨¦ um simulador para pesquisas de dire??o aut?noma de c¨®digo aberto utilizado para testar sistemas de condu??o aut?noma antes de seu lan?amento em produ??o. Ele oferece flexibilidade na cria??o e reutiliza??o de modelos tridimensionais de ve¨ªculos, terrenos, pessoas, animais e mais, tornando poss¨ªvel simular cen¨¢rios, como os de um pedestre atravessando a rua ou o encontro com um ve¨ªculo vindo em uma velocidade espec¨ªfica. O sistema de condu??o aut?noma em testes deve reconhecer estes atores din?micos e tomar a a??o apropriada, como frear. Nossos times usam CARLA para o desenvolvimento cont¨ªnuo e testes de sistemas de dire??o aut?noma.
-
79. Pacotes de ativos do Databricks
Os , que em abril de 2024, est?o se tornando a ferramenta preferida para empacotamento e implanta??o de ativos no Databricks, facilitando a ado??o de pr¨¢ticas de engenharia de software em nossos times de dados. Os DABs permitem englobar a configura??o de fluxos de trabalho e tarefas, al¨¦m do c¨®digo a ser executado nessas tarefas, em um pacote que pode ser implantado em diversos ambientes por meio de pipelines de CI/CD. A ferramenta oferece templates para tipos comuns de ativos e tamb¨¦m suporta templates personalizados, o que possibilita a cria??o de modelos de servi?os personalizados para projetos de engenharia de dados e aprendizado de m¨¢quina. Nossos times t¨ºm adotado cada vez mais essa ferramenta como parte essencial de seus fluxos de trabalho de engenharia. Embora os DABs incluam templates para notebooks e suportem sua implanta??o em produ??o, n?o recomendamos a produ??o de notebooks. Em vez disso, incentivamos a escrita intencional de c¨®digo de produ??o utilizando pr¨¢ticas de engenharia que garantam a manuten??o, resili¨ºncia e escalabilidade dessas cargas de trabalho.
-
80. Instructor
Quando usamos chatbots baseados em modelos de linguagem de grande porte (LLM) como usu¨¢rios finais, eles geralmente nos retornam uma resposta em linguagem natural n?o estruturada. Ao construir aplica??es de GenAI que v?o al¨¦m de chatbots, pode ser ¨²til solicitar ao LLM uma resposta estruturada em JSON, YAML ou outros formatos, para ent?o analisar e usar essa resposta na aplica??o. No entanto, como os LLMs n?o s?o determin¨ªsticos, eles nem sempre fazem exatamente o que pedimos. A biblioteca pode ser usada para nos ajudar a solicitar sa¨ªdas estruturadas de LLMs. Voc¨º pode definir a estrutura de sa¨ªda desejada e configurar tentativas adicionais se o LLM n?o retornar a estrutura que voc¨º solicitou. Como a melhor experi¨ºncia da usu¨¢ria ao trabalhar com LLMs muitas vezes envolve o streaming dos resultados em vez de esperar pela resposta completa, o Instructor tamb¨¦m cuida de analisar estruturas parciais de um fluxo.
-
81. Kedro
melhorou significativamente como uma ferramenta para MLOps e manteve seu foco em modularidade e pr¨¢ticas de engenharia, pontos que gostamos desde o in¨ªcio. Um exemplo que destaca sua modularidade ¨¦ a introdu??o do package independente , que separa o c¨®digo dos dados. O Kedro adicionou melhorias na CLI, nos templates de projetos iniciais e nas capacidades de telemetria. Al¨¦m disso, o lan?amento recente de uma extens?o para VS Code ¨¦ um ¨®timo refor?o para a experi¨ºncia das pessoas desenvolvedoras.
-
82. LiteLLM
¨¦ uma biblioteca para perfeita integra??o com v¨¢rias APIs de provedores de modelos de linguagem de grande porte (LLM) que padroniza as intera??es atrav¨¦s de um . Ela suporta uma extensa variedade de modelos e , e oferece uma interface unificada para preenchimento, incorpora??o e gera??o de imagens. O LiteLLM simplifica a integra??o traduzindo as entradas para corresponder aos requisitos espec¨ªficos de endpoint de cada provedor. Tamb¨¦m fornece uma estrutura necess¨¢ria para implementar muitos dos recursos operacionais necess¨¢rios em uma aplica??o de produ??o, como cache, registro de logs, limita??o de taxa de request e balanceamento de carga. Isso garante uma opera??o uniforme em diferentes LLMs. Nossas equipes est?o usando o LiteLLM para facilitar a troca de v¨¢rios modelos; um recurso necess¨¢rio no cen¨¢rio atual, onde os modelos est?o evoluindo rapidamente. ? crucial reconhecer que as respostas do modelo a prompts id¨ºnticos variam, indicando que um m¨¦todo de invoca??o consistente por si s¨® pode n?o otimizar totalmente o desempenho da gera??o de respostas completas. Al¨¦m disso, cada modelo implementa recursos adicionais de forma ¨²nica e uma ¨²nica interface pode n?o ser suficiente para todos. Por exemplo, uma de nossas equipes teve dificuldade em identificar vantagens na chamada de fun??o em um modelo AWS Bedrock ao fazer proxy atrav¨¦s do LiteLLM.
-
83. LlamaIndex
traz mecanismos que lhe permite definir aplica??es espec¨ªficas para um dom¨ªnio conectadas a LLMs, al¨¦m de dar suporte a tarefas como ingest?o de dados, indexa??o vetorial e busca de respostas a perguntas em linguagem natural. Nossos times usaram LlamaIndex para construir uma pipeline de gera??o aumentada por recupera??o (RAG) que automatiza a ingest?o de documentos, indexando seus embeddings e permitindo sua busca com base nas informa??es fornecidas pela usu¨¢ria. Usando , voc¨º pode estender e customizar m¨®dulos do LLamaIndex para melhor atender suas necessidades e construir, por exemplo, aplica??es LLM com seus LLMs preferidos, embeddings e provedores de armazenamento de vetores.
-
84. LLM Guardrails
LLM Guardrails ¨¦ um conjunto de diretrizes, pol¨ªticas ou filtros projetados para evitar que modelos de linguagem de grande porte (LLMs) gerem conte¨²do prejudicial, enganoso ou irrelevante. Os guardrails tamb¨¦m podem ser usados para proteger aplica??es de LLMs contra usu¨¢rias mal-intencionadas que tentem manipular o sistema com t¨¦cnicas como a manipula??o de entrada. Elas atuam como uma rede de seguran?a, estabelecendo limites para o modelo ao processar e gerar conte¨²do. Existem alguns frameworks emergentes nesse espa?o, como o NeMo Guardrails, e , que nossas equipes t¨ºm achado ¨²teis. Recomendamos que toda aplica??o que utilize LLMs tenha guardrails implementados e que suas regras e pol¨ªticas sejam continuamente aprimoradas. Eles s?o cruciais para construir aplica??es de chat com LLMs que sejam respons¨¢veis e confi¨¢veis.
-
85. Medusa
Em nossa experi¨ºncia, a maioria das solu??es de e-commerce para constru??o de sites de compras geralmente caem na armadilha 80/20: podemos facilmente construir 80% do que queremos, mas n?o podemos fazer nada sobre os 20% restantes. oferece um bom equil¨ªbrio. ? uma plataforma de e-commerce de c¨®digo aberto altamente customiz¨¢vel que permite ¨¤s pessoas desenvolvedoras criarem experi¨ºncias de compras ¨²nicas e personalizadas que podem ser auto-hospedadas ou executadas na plataforma da Medusa. Constru¨ªdo em Next.js e PostgreSQL, Medusa acelera o processo de desenvolvimento com sua gama abrangente de m¨®dulos ¡ª desde o carrinho de compras b¨¢sico e gerenciamento de pedidos at¨¦ recursos avan?ados como m¨®dulos de vale-presente e c¨¢lculo de impostos para diferentes regi?es. Descobrimos que a Medusa ¨¦ uma estrutura valiosa e a aplicamos a alguns projetos.
-
86. Pkl
¨¦ uma ferramenta de c¨®digo aberto para configura??o de linguagem criada inicialmente para uso interno na Apple. Sua funcionalidade principal ¨¦ o sistema de valida??o e tipos, que permite que os erros de configura??o sejam detectados antes da implementa??o. O Pkl permitiu que nossas equipes reduzissem a duplica??o de c¨®digo (para casos como sobreposi??es de ambiente) e realizassem a valida??o antes que as altera??es de configura??o fossem aplicadas a ambientes de produ??o. Ele gera arquivos JSON, PLIST, YAML e .properties e tem ampla integra??o de IDE e linguagem, incluindo gera??o de c¨®digo.
-
87. ROS 2
¨¦ um framework de c¨®digo aberto projetado para o desenvolvimento de sistemas rob¨®ticos. Ele oferece um conjunto de bibliotecas e ferramentas que possibilitam a implementa??o modular de aplica??es, abrangendo fun??es como comunica??o entre processos, execu??o multi-thread e qualidade de servi?o. O ROS 2 se baseia em seu predecessor ao oferecer capacidades aprimoradas em tempo real, melhor modularidade, maior suporte a diversas plataformas e padr?es sensatos. O ROS 2 est¨¢ ganhando for?a na ind¨²stria automotiva; sua arquitetura baseada em n¨®s e o modelo de comunica??o baseado em t¨®picos s?o especialmente atraentes para fabricantes com aplica??es veiculares complexas e em constante evolu??o, como funcionalidades de condu??o aut?noma.
-
88. seL4
Em ve¨ªculos definidos por software (SDV) ou outros cen¨¢rios cr¨ªticos para a seguran?a, a estabilidade em tempo real do sistema operacional ¨¦ crucial. Algumas empresas monopolizam esse campo devido ¨¤s altas barreiras de entrada, por isso solu??es de c¨®digo aberto, como , s?o preciosas. O seL4 ¨¦ um micron¨²cleo de sistema operacional de alto desempenho e alta confiabilidade. Ele utiliza m¨¦todos de para garantir, de forma matem¨¢tica, que o comportamento do sistema operacional esteja em conformidade com a especifica??o. Sua arquitetura de micron¨²cleo tamb¨¦m minimiza as responsabilidades principais para garantir a estabilidade do sistema. Temos acompanhado empresas de ve¨ªculos el¨¦tricos como a NIO se envolverem com o ecossistema seL4, e pode haver mais desenvolvimentos nessa ¨¢rea no futuro.
-
89. SetFit
A maioria das ferramentas atuais baseadas em IA s?o generativas ¡ª elas geram textos e imagens utilizando transformadores pr¨¦-treinados generativos (GPTs) para esse fim. Para casos de uso que exigem trabalhar com textos existentes, como classificar trechos de texto ou determinar a inten??o, os transformadores de senten?a s?o a ferramenta de escolha. Nesse campo, ¨¦ uma estrutura para o ajuste fino de transformadores de senten?a. Gostamos do SetFit porque ele utiliza aprendizado contrastivo para separar diferentes classes de inten??o umas das outras, frequentemente alcan?ando uma separa??o n¨ªtida com um n¨²mero muito pequeno de exemplos, at¨¦ mesmo 25 ou menos. Transformadores de senten?a tamb¨¦m podem desempenhar um papel em um sistema de IA generativa. Utilizamos com sucesso o SetFit para detec??o de inten??o em um sistema de chatbot voltado para a cliente que utiliza um LLM, e mesmo estando cientes da API de modera??o da OpenAI, optamos por um classificador baseado no SetFit para realizar um ajuste fino adicional visando alcan?ar um filtro mais rigoroso.
-
90. vLLM
¨¦ um motor de infer¨ºncia de alto rendimento e eficiente em termos de mem¨®ria para LLMs que pode rodar na nuvem ou localmente. Suporta perfeitamente m¨²ltiplas e modelos populares de c¨®digo aberto. Nossos times implementam agentes vLLM em cont¨ºineres Docker em plataformas GPU como NVIDIA DGX e Intel HPC, hospedando modelos como , e para assist¨ºncia de desenvolvimento de c¨®digo, busca de conhecimento e intera??o com banco de dados de linguagem natural. O vLLM ¨¦ compat¨ªvel com o padr?o SDK da OpenAI, facilitando uma consistente entrega de modelos. O usa um cont¨ºiner de infer¨ºncia personalizado para aprimorar a performance na entrega de modelos, com o vLLM como motor de infer¨ºncia padr?o devido a sua alta taxa de transfer¨ºncia e eficiente gerenciamento de mem¨®ria. O framework vLLM est¨¢ se consolidando como padr?o para implanta??es de modelos em larga escala.
Avalie
-
91. Apache XTable?
Entre os formatos de tabela abertos dispon¨ªveis que possibilitam lakehouses ¡ª como Apache Iceberg, Delta e Hudi ¡ª ainda n?o surgiu um vencedor. Em vez disso, identificamos ferramentas que possibilitam a interoperabilidade entre esses formatos. , por exemplo, permite interoperabilidade unidirecional, possibilitando que clientes Hudi e Iceberg leiam tabelas Delta. Outro novo participante nesse espa?o ¨¦ o , um projeto incubado pela Apache que facilita a interoperabilidade omnidirecional entre Hudi, Delta e Iceberg. Assim como o UniForm, ele converte metadados entre esses formatos sem criar uma c¨®pia dos dados subjacentes. O XTable pode ser ¨²til para equipes que est?o experimentando com m¨²ltiplos formatos de tabela. No entanto, para uso a longo prazo, dadas as diferen?as nas funcionalidades desses formatos, depender fortemente da interoperabilidade omnidirecional pode fazer com que as equipes acabem utilizando apenas o denominador comum de funcionalidades.
-
92. dbldatagen
Preparar dados de teste para engenharia de dados ¨¦ um desafio significativo. Transferir dados do ambiente de produ??o para ambientes de teste pode ser arriscado, ent?o as equipes muitas vezes dependem de dados falsos ou sint¨¦ticos. Neste Radar, exploramos abordagens inovadoras como dados sint¨¦ticos para teste e treinamento de modelos. Mas, na maioria das vezes, a gera??o procedural de baixo custo ¨¦ suficiente. O ¨¦ uma dessas ferramentas; ¨¦ uma biblioteca Python para gerar dados sint¨¦ticos no ambiente Databricks para testes, benchmarks, demonstra??es e outros usos. dbldatagen pode gerar dados sint¨¦ticos em grande escala, at¨¦ bilh?es de linhas em minutos, suportando v¨¢rios cen¨¢rios como m¨²ltiplas tabelas, captura de dados alterados e opera??es de mesclagem/jun??o. Ele lida bem com os tipos primitivos do Spark SQL, gera intervalos e valores discretos, al¨¦m de aplicar distribui??es espec¨ªficas. Ao criar dados sint¨¦ticos usando o ecossistema Databricks, o dbldatagen ¨¦ uma op??o que vale a pena avaliar.
-
93. DeepEval
¨¦ um framework de c¨®digo aberto, baseado em Python, de avalia??o do desempenho de LLMs. Voc¨º pode utilizar para avaliar a gera??o aumentada por recupera??o (RAG) e outros tipos de aplicativos feitos com frameworks populares como LlamaIndex ou LangChain, bem como para estabelecer uma linha de base e benchmark quando voc¨º est¨¢ comparando diferentes modelos para as suas necessidades. DeepEval oferece um conjunto abrangente de m¨¦tricas e recursos para avaliar o desempenho de LLMs, incluindo detec??o de alucina??o, relev?ncia de respostas e otimiza??o de hiperpar?metros. Ele oferece integra??o com pytest e, al¨¦m dessas asser??es, voc¨º pode facilmente integrar a su¨ªte de testes em uma pipeline de integra??o cont¨ªnua. Se voc¨º est¨¢ trabalhando com LLMs, considere experimentar o DeepEval para melhorar seu processo de testes e garantir a confiabilidade de suas aplica??es.
-
94. DSPy
A maioria das aplica??es baseadas em modelos de linguagem hoje depende de modelos de prompt ajustados manualmente para tarefas espec¨ªficas. , um framework para desenvolver tais aplica??es, adota uma abordagem diferente que dispensa a engenharia direta de prompts. Em vez disso, ele introduz abstra??es de alto n¨ªvel orientadas ao fluxo do programa atrav¨¦s de m¨®dulos que podem ser sobrepostos, m¨¦tricas para otimizar e dados para treinar/testar. Em seguida, otimiza os prompts e/ou pesos do modelo de linguagem subjacente com base nessas m¨¦tricas definidas. O c¨®digo resultante se assemelha muito ao treinamento de redes neurais com PyTorch. Achamos a abordagem que eles adotam inovadora por sua perspectiva diferente e acreditamos que vale a pena experimentar.
-
95. Flutter para Web
O Flutter ¨¦ conhecido por seu suporte multiplataforma para aplicativos iOS e Android. Agora, ele se expandiu para mais plataformas. Avaliamos anteriormente o Flutter para Web ¡ª que nos permite construir aplicativos para iOS, Android e navegadores a partir da mesma base de c¨®digo. Nem toda aplica??o web faz sentido em Flutter, mas acreditamos que ele ¨¦ particularmente adequado para casos como aplicativos web progressivos, e para a convers?o de aplicativos m¨®veis Flutter j¨¢ existentes para a web. O Flutter j¨¢ oferecia suporte ao WebAssembly (WASM) como um alvo de compila??o em seu canal experimental, o que significava que estava em desenvolvimento ativo com poss¨ªveis bugs e problemas de performance. As vers?es mais recentes o tornaram est¨¢vel. O desempenho das aplica??es web em Flutter compiladas para o alvo WASM ¨¦ muito superior ao de sua compila??o para JavaScript. O desempenho quase nativo em diferentes plataformas ¨¦ tamb¨¦m uma das raz?es pelas quais muitas desenvolvedoras escolhem o Flutter inicialmente.
-
96. kotaemon
¨¦ uma ferramenta e framework de c¨®digo aberto baseada em RAG para desenvolver aplicativos de perguntas e respostas para documentos de base de conhecimento. Ele pode entender v¨¢rios tipos de documentos, incluindo formatos PDF e DOC, e oferece uma interface web, baseada no Gradio, que permite ¨¤s usu¨¢rias organizar e interagir com uma base de conhecimento por meio de chat. Ele possui pipelines RAG integradas com armazenamento de vetores e pode ser estendido com SDKs. O kotaemon tamb¨¦m referencia os documentos fonte em suas respostas, al¨¦m de fornecer pr¨¦-visualiza??o na web e um pontua??o de relev?ncia. Para quem deseja criar uma aplica??o de perguntas e respostas baseado em RAG, o framework personaliz¨¢vel ¨¦ um ¨®timo ponto de partida.
-
97. Lenis
¨¦ uma biblioteca de rolagem suave, leve e poderosa, projetada para navegadores modernos. Ela permite experi¨ºncias de rolagem suave, como sincroniza??o de rolagem WebGL e efeitos de paralaxe, tornando-a ideal para equipes que criam p¨¢ginas com intera??es de rolagem fluidas e cont¨ªnuas. Nossas desenvolvedoras acharam Lenis simples de usar, oferecendo uma abordagem simplificada para criar rolagens suaves. No entanto, a biblioteca pode ter problemas de acessibilidade, principalmente com intera??es de rolagem vertical e horizontal, podendo confundir usu¨¢rias com defici¨ºncias. Embora visualmente atrativa, ela precisa de uma implementa??o cuidadosa para manter a acessibilidade.
-
98. LLMLingua
melhora a efici¨ºncia de LLMs ao comprimir prompts usando um pequeno modelo de linguagem para remover tokens n?o essenciais com perda m¨ªnima de desempenho. Essa permite que LLMs mantenham a capacidade de racioc¨ªnio e aprendizado contextual, enquanto processam prompts mais longos de forma eficiente, abordando desafios como efici¨ºncia de custos, lat¨ºncia de infer¨ºncia e manejo de contexto. Compat¨ªvel com v¨¢rios LLMs sem necessidade de treinamento adicional e suportando frameworks como LLamaIndex, o LLMLingua ¨¦ ideal para otimizar o desempenho de infer¨ºncia de LLMs.
-
99. Microsoft Autogen
¨¦ um framework de c¨®digo aberto que simplifica a cria??o e orquestra??o de agentes de IA, permitindo a colabora??o multi-agentes para resolver tarefas complexas. Ele suporta tanto fluxos aut?nomos quanto fluxos com intera??o humana, ao mesmo tempo que oferece compatibilidade com uma variedade de modelos de linguagem de grande escala (LLMs) e ferramentas para intera??o de agentes. Um de nossos times utilizou Autogen para uma cliente para construir uma plataforma com IA onde cada agente representava uma habilidade espec¨ªfica, como gera??o de c¨®digo, revis?o de c¨®digo ou resumo de documenta??o. O framework permitiu que a equipe criasse novos agentes de forma cont¨ªnua e consistente, definindo o modelo e o fluxo de trabalho corretos. Eles utilizaram o LlamaIndex para orquestrar o fluxo de trabalho. Embora o Autogen tenha se mostrado promissor, especialmente em ambientes de produ??o, ainda h¨¢ preocupa??es em rela??o ¨¤ escalabilidade e ao gerenciamento da complexidade ¨¤ medida que mais agentes s?o adicionados. Uma avalia??o mais aprofundada ¨¦ necess¨¢ria para avaliar sua viabilidade a longo prazo no escalonamento de sistemas baseados em agentes.
-
100. Pingora
¨¦ um framework Rust para criar servi?os de rede r¨¢pidos, confi¨¢veis e program¨¢veis. Originalmente desenvolvido pela Cloudflare para resolver as defici¨ºncias do , o Pingora vem demonstrando um grande potencial, pois proxies mais novos, como o , est?o sendo criados com base nele. Embora a maioria de n¨®s n?o enfrente um n¨ªvel de escala como a do Cloudflare, encontramos cen¨¢rios em que o roteamento flex¨ªvel da camada de aplicativos ¨¦ essencial para nossos servi?os de rede. A arquitetura do Pingora nos permite aproveitar todo o poder do Rust nessas situa??es sem abandonar seguran?a ou desempenho.
-
101. Ragas
¨¦ um framework projetado para avaliar o desempenho de pipelines de gera??o aumentada por recupera??o (RAG), que endere?a o desafio de avaliar tanto os componentes de recupera??o quanto de gera??o nesses sistemas. Ele fornece m¨¦tricas estruturadas como fidelidade, relev?ncia das respostas e utiliza??o de contexto, que ajudam a avaliar a efic¨¢cia dos sistemas baseados em RAG. Nossas desenvolvedoras acharam o framework ¨²til para realizar avalia??es peri¨®dicas, com o objetivo de ajustar par?metros como recupera??es top-k e modelos de embedding. Algumas equipes integraram o Ragas em pipelines que s?o executados diariamente, sempre que o template do prompt ou o modelo muda. Embora suas m¨¦tricas ofere?am insights s¨®lidos, temos receio de que o framework possa n?o capturar todas as nuances e intera??es complexas dos pipelines RAG, e recomendamos considerar frameworks adicionais de avalia??o. No entanto, Ragas se destaca por sua capacidade de simplificar a avalia??o de RAG em ambientes de produ??o, oferecendo melhorias valiosas baseadas em dados.
-
102. Score
Muitas organiza??es que implementam suas pr¨®prias plataformas de desenvolvimento internas tendem a criar seus pr¨®prios sistemas de orquestra??o de plataforma para impor padr?es organizacionais entre desenvolvedoras e suas equipes de hospedagem de plataforma. No entanto, as caracter¨ªsticas b¨¢sicas de uma plataforma de implanta??o de caminho pavimentado para hospedar cargas de trabalho em cont¨ºineres de maneira segura, consistente e compat¨ªvel s?o semelhantes de uma organiza??o para outra. N?o seria bom se tiv¨¦ssemos uma linguagem compartilhada para especificar esses requisitos? est¨¢ demonstrando a promessa de se tornar um padr?o neste espa?o. ? uma linguagem declarativa na forma de YAML que descreve como uma carga de trabalho em cont¨ºiner deve ser implantada e quais servi?os e par?metros espec¨ªficos ela precisar¨¢ para funcionar. Score foi originalmente desenvolvido pela Humanitec como a linguagem de configura??o para seu produto , mas agora est¨¢ sob cust¨®dia da como um projeto de c¨®digo aberto. Com o apoio da CNCF, Score tem o potencial de ser mais amplamente utilizado al¨¦m do produto Humanitec. Foi lan?ado com duas implementa??es de refer¨ºncia: Kubernetes e Docker Compose. A extensibilidade do Score esperan?osamente levar¨¢ a contribui??es da comunidade para outras plataformas. Score certamente tem uma semelhan?a com a especifica??o modelo de aplica??o aberto (OAM) para Kubevela, mas est¨¢ mais focado na implanta??o de cargas de trabalho em cont¨ºineres do que no aplicativo inteiro. Tamb¨¦m h¨¢ uma sobreposi??o com SST, mas o SSI est¨¢ mais preocupado com a implanta??o diretamente em uma infraestrutura de nuvem do que em uma plataforma de engenharia interna. Estamos observando o Score, com interesse, ¨¤ medida que ele evolui.
-
103. shadcn
desafia o conceito tradicional de bibliotecas de componentes ao oferecer componentes reutiliz¨¢veis no estilo "copia-e-cola" que se tornam parte da sua base de c¨®digos. Essa abordagem concede ¨¤s equipes total propriedade e controle, permitindo uma customiza??o e extens?o mais f¨¢cil ¡ª ¨¢reas onde bibliotecas convencionais mais populares como e Chakra UI frequentemente ficam aqu¨¦m. Constru¨ªdo com e Tailwind CSS, o shadcn se integra de forma simples em qualquer aplica??o baseada em React, tornando-o uma boa op??o para projetos que priorizam controle e extensibilidade. Ele inclui uma para ajudar no processo de copiar e colar os componentes em seu projeto. Seus benef¨ªcios tamb¨¦m incluem a redu??o de depend¨ºncias ocultas e a preven??o de implementa??es fortemente acopladas, raz?es pelas quais o shadcn est¨¢ ganhando for?a como uma alternativa atraente para equipes que buscam uma abordagem mais pr¨¢tica e adapt¨¢vel para o desenvolvimento frontend.
-
104. Slint
¨¦ um framework declarativo com interface gr¨¢fica para construir interfaces de usu¨¢rio nativas para aplicativos Rust, C++ ou JavaScript. Embora seja um framework de interface multiplataforma com recursos importantes, como pr¨¦-visualiza??o em tempo real, design responsivo de UI, e uma experi¨ºncia de usu¨¢ria nativa, queremos destacar especialmente sua utilidade para sistemas embarcados. Equipes que desenvolvem aplica??es embarcadas tradicionalmente enfrentam um n¨²mero limitado de op??es para desenvolvimento de interfaces, cada uma com suas pr¨®prias limita??es. O Slint oferece o equil¨ªbrio perfeito entre a experi¨ºncia da pessoa desenvolvedora e o desempenho, utilizando uma linguagem de marca??o f¨¢cil de usar, semelhante ao HTML, e compilando diretamente para c¨®digo de m¨¢quina. Em tempo de execu??o, ele tamb¨¦m possui um baixo consumo de recursos, o que ¨¦ fundamental para sistemas embarcados. Em resumo, gostamos do Slint porque ele traz pr¨¢ticas comprovadas do desenvolvimento web e m¨®vel para o ecossistema de sistemas embarcados.
-
105. SST
¨¦ um framework para implanta??o de aplica??es em ambientes de nuvem juntamente com o provisionamento de todos os servi?os que a aplica??o precisa para ser executada. SST n?o ¨¦ s¨® uma ferramenta de IaC; ¨¦ um framework com com uma API TypeScript que permite que voc¨º defina o ambiente de sua aplica??o, um servi?o que implanta sua aplica??o quando acionado atrav¨¦s de push do GIT, bem como uma interface gr¨¢fica de console para gerenciar a aplica??o resultante e invocar os recursos de gerenciamento do SST. Embora o SST tenha sido originalmente baseado no AWS Cloud Formation e no CDK, sua vers?o mais recente foi implementada sobre o Terraform e o Pulumi. Ent?o, na teoria, ¨¦ agn¨®stico em rela??o ¨¤ nuvem. O SST tem suporte nativo para a implanta??o de diversas estruturas de aplicativos da web padr?o, incluindo Next.js e Remix, mas tamb¨¦m oferece suporte a aplica??es de API sem interface. O SST parece estar em uma categoria pr¨®pria. Embora tenha alguma semelhan?a com ferramentas de orquestra??o de plataforma como o Kubevela, ele tamb¨¦m fornece conveni¨ºncias para pessoas desenvolvedoras, como um modo ao vivo que faz proxy de invoca??es do AWS Lambda de volta para uma fun??o em execu??o na m¨¢quina local da pessoa desenvolvedora. No momento, o SST continua sendo uma curiosidade, mas ¨¦ um projeto e uma categoria de ferramentas que vale a pena observar ¨¤ medida que evolui.
Evite
N?o encontrou algo que voc¨º esperava achar?
?
Cada edi??o do Radar inclui blips que refletem nossas experi¨ºncias nos seis meses anteriores. Talvez j¨¢ tenhamos falado sobre o que voc¨º procura em um?Radar anterior. ?s vezes, deixamos coisas de fora simplesmente porque h¨¢ muitas a serem abordadas. Tamb¨¦m pode faltar um t¨®pico espec¨ªfico porque o Radar reflete nossa experi¨ºncia, n?o se baseando em uma an¨¢lise abrangente do mercado.