André Linhares

      André Linhares

      Engenheiro de Performance (Kernel/IO)

      Vivo no kernel space caçando latência com eBPF. Para mim, context switches excessivos são inimigos pessoais e cada ciclo de CPU desperdiçado é uma ofensa técnica.

      Artigos publicados (22)

      Compressao Impacto Em CPU E Latencia

      Compressao Impacto Em CPU E Latencia

      A compressão de dados é uma faca de dois gumes. Por um lado, reduz o espaço de armazenamento e a largura de banda de transmissão, diminuindo custos e melhorando...

      Mtu Mss E Fragmentacao Impacto Em Storage Na Rede

      Mtu Mss E Fragmentacao Impacto Em Storage Na Rede

      Para um Sysadmin Sênior, a rede não é um tubo contínuo de dados. É uma série de eventos discretos. Cada pacote que entra ou sai da interface de rede (NIC) é um ...

      Rpo E Rto Como Definir Metas Realistas

      Rpo E Rto Como Definir Metas Realistas

      Muitas empresas caem na armadilha de buscar RPO e RTO próximos de zero sem entender as implicações. Um RPO de zero significa que você não pode perder *nenhum* d...

      ZFS Mirror Vs Raidz1Raidz2Raidz3 Quando Usar

      ZFS Mirror Vs Raidz1Raidz2Raidz3 Quando Usar

      A escolha entre ZFS Mirror e RAIDZ (RAIDZ1, RAIDZ2, RAIDZ3) é crucial para determinar o desempenho, a capacidade de armazenamento e a tolerância a falhas do seu...

      ZFS Vs RAID Tradicional Diferencas Conceituais

      ZFS Vs RAID Tradicional Diferencas Conceituais

      RAID te protege de falha de disco. ZFS te protege de *corrupção* de dados. Entenda a diferença, ou prepare-se para noites em claro....

      Hot Spares Globais vs. Dedicados: Otimizando a Recuperação em Storage Corporativo

      Hot Spares Globais vs. Dedicados: Otimizando a Recuperação em Storage Corporativo

      Não desperdice discos. Entenda a matemática entre Hot Spares Globais e Dedicados, o impacto no MTTR e por que o Spare Distribuído (dRAID) é o futuro da recuperação.

      O Paradoxo de Performance do Ceph: Por que seus Benchmarks estão Mentindo

      O Paradoxo de Performance do Ceph: Por que seus Benchmarks estão Mentindo

      Entenda por que o Ceph parece lento em testes sintéticos mas escala em produção. Aprenda a medir latência distribuída, fila de I/O e a evitar a armadilha do 'dd'.

      Ceph Recovery e Rebalance: Por que a Latência Explode e Como Controlar

      Ceph Recovery e Rebalance: Por que a Latência Explode e Como Controlar

      Entenda a física do Ceph Recovery e Backfill. Descubra por que falhas de OSD geram tempestades de I/O e aprenda a ajustar o mClock e throttles para proteger a latência de produção.

      O Mito da Otimização via Registro no Windows 11: Riscos, Ganhos Reais e Recovery

      O Mito da Otimização via Registro no Windows 11: Riscos, Ganhos Reais e Recovery

      Edições no Registro do Windows 11 realmente melhoram a performance? Analisamos os mitos, os riscos de corrupção de hives e o único método seguro de rollback.

      Write Amplification em SSD: Análise Profunda de Kernel e Otimização de IO

      Write Amplification em SSD: Análise Profunda de Kernel e Otimização de IO

      Domine o Write Amplification (WA) em SSDs NVMe. Do perfilamento com blktrace ao tuning de sistemas de arquivos e filas de bloco para reduzir latência e desgaste.

      Acelerando ZFS com Special VDEVs: O guia de engenharia para armazenamento híbrido

      Acelerando ZFS com Special VDEVs: O guia de engenharia para armazenamento híbrido

      Desvende a arquitetura dos Special VDEVs no ZFS. Aprenda a eliminar a latência de metadados em discos rotacionais e otimize IOPS segregando blocos pequenos em NVMe.

      Eliminando o FTL: Latência Determinística com NVMe ZNS e io_uring Passthrough

      Eliminando o FTL: Latência Determinística com NVMe ZNS e io_uring Passthrough

      Descubra como combinar Zoned Namespaces (ZNS) e io_uring passthrough para eliminar a latência de cauda e maximizar IOPS no Linux 6.x.

      NFS vs SMB: Engenharia de performance, tuning de kernel e a verdade sobre latência

      NFS vs SMB: Engenharia de performance, tuning de kernel e a verdade sobre latência

      Esqueça a guerra de fans. Uma análise profunda de engenharia sobre filas, interrupções, ksmbd, nconnect e como saturar 10GbE+ sem desperdício de CPU.

      SSDs QLC de 61TB vs HDDs HAMR: O fim da era magnética no data center?

      SSDs QLC de 61TB vs HDDs HAMR: O fim da era magnética no data center?

      Análise técnica detalhada: Como os novos SSDs QLC de ultra densidade (61.44TB+) estão dizimando o TCO dos HDDs em cenários de IA e Big Data. Comparativo de arquitetura, consumo e performance.

      Domando a Latência: Otimizando NVMe com io_uring Passthrough e Polling

      Domando a Latência: Otimizando NVMe com io_uring Passthrough e Polling

      Descubra como eliminar a sobrecarga da camada de bloco e interrupções usando io_uring passthrough e polling. Guia avançado para engenharia de performance em storage.

      O fim do garbage collection: dominando a latência com NVMe Zoned Namespaces

      O fim do garbage collection: dominando a latência com NVMe Zoned Namespaces

      Elimine o gargalo da Flash Translation Layer. Descubra como o NVMe Zoned Namespaces (ZNS) reduz a amplificação de escrita para 1.1x e estabiliza a latência em servidores de alta performance.

      NVMe flexible data placement: O fim da amplificação de escrita e latência

      NVMe flexible data placement: O fim da amplificação de escrita e latência

      Descubra como o NVMe FDP (TP4146) reduz o Write Amplification Factor (WAF) e estabiliza a latência de cauda em SSDs Enterprise sem a complexidade do ZNS.

      Eliminando a Latência da Camada de Bloco com io_uring Passthrough em NVMe

      Eliminando a Latência da Camada de Bloco com io_uring Passthrough em NVMe

      Descubra como o io_uring passthrough (kernel 5.19+) elimina o overhead da camada de bloco, permitindo acesso direto ao hardware NVMe com latência mínima e máxima eficiência de CPU.

      Otimizando a latência de NVMe: tabelas hash no IOPOLL do io_uring

      Otimizando a latência de NVMe: tabelas hash no IOPOLL do io_uring

      Descubra como a nova implementação de tabelas hash no IOPOLL do io_uring elimina o gargalo de CPU em NVMes de alta performance, reduzindo a latência de cauda drasticamente.

      Domando a amplificação de escrita: NVMe FDP e io_uring passthrough

      Domando a amplificação de escrita: NVMe FDP e io_uring passthrough

      Descubra como reduzir o WAF e eliminar a latência de cauda em SSDs Enterprise combinando NVMe Flexible Data Placement (FDP) e io_uring passthrough no Linux.

      Dominando a latência: estratégias de polling com io_uring em NVMe

      Dominando a latência: estratégias de polling com io_uring em NVMe

      Descubra como eliminar o overhead de interrupções em SSDs NVMe usando io_uring e IOPOLL. Análise técnica de engenharia de performance para reduzir latência e maximizar throughput no Linux.

      NVMe Flexible Data Placement: O Fim da Write Amplification Descontrolada

      NVMe Flexible Data Placement: O Fim da Write Amplification Descontrolada

      Engenharia de I/O profunda: Como o NVMe FDP (TP4146) reduz o WAF, elimina o 'Blender Effect' e estabiliza a latência de cauda em SSDs Enterprise sem a complexidade do ZNS.