Arquivo de Software - Modo Hard https://modohard.com.br/category/software/ Notícias de games, tecnologia e inteligência artificial. Lançamentos, análises e tendências do mundo digital no Modo Hard. Tue, 24 Mar 2026 16:50:18 +0000 pt-BR hourly 1 https://wordpress.org/?v=6.9.4 https://modohard.com.br/wp-content/uploads/2026/02/cropped-icon-s-32x32.png Arquivo de Software - Modo Hard https://modohard.com.br/category/software/ 32 32 NVIDIA faz doação histórica de drivers de GPU para a comunidade de código aberto; entenda o impacto https://modohard.com.br/nvidia-doacao-drivers-gpu-kubernetes-codigo-aberto/ https://modohard.com.br/nvidia-doacao-drivers-gpu-kubernetes-codigo-aberto/#respond Tue, 24 Mar 2026 16:37:47 +0000 https://modohard.com.br/?p=5664 NVIDIA doa drivers de alocação dinâmica de recursos (DRA) para a comunidade open source. Veja como isso muda a gestão de GPUs e IA.

O post NVIDIA faz doação histórica de drivers de GPU para a comunidade de código aberto; entenda o impacto apareceu primeiro em Modo Hard.

]]>
A infraestrutura por trás da inteligência artificial acaba de passar por uma mudança de paradigma. Durante a KubeCon Europe 2026, realizada em Amsterdã, a NVIDIA anunciou a doação de uma de suas tecnologias mais críticas para a Cloud Native Computing Foundation (CNCF): o driver de Alocação Dinâmica de Recursos (DRA) para GPUs.

O movimento marca uma transição importante. O que antes era um software sob governança exclusiva da fabricante, agora passa a ser propriedade da comunidade sob o projeto Kubernetes. Para o setor de tecnologia, isso sinaliza que até mesmo os gigantes do hardware reconhecem que o futuro da IA depende de padrões abertos e colaborativos.

O que é o Driver DRA e por que ele importa?

Historicamente, gerenciar o poder de processamento das GPUs em grandes data centers era uma tarefa complexa e, muitas vezes, limitada por barreiras de software proprietário. O driver NVIDIA Dynamic Resource Allocation (DRA) resolve esse gargalo ao permitir que o Kubernetes orquestre o hardware de forma muito mais granular.

Com essa tecnologia, desenvolvedores podem:

  • Compartilhar recursos de forma inteligente: Através das tecnologias Multi-Process Service (MPS) e Multi-Instance GPU (MIG), uma única placa de vídeo de alta performance pode ser fatiada para atender a múltiplas tarefas simultâneas, otimizando o investimento em hardware.
  • Reconfiguração em tempo real: A alocação de potência de processamento e memória pode ser alterada dinamicamente, sem a necessidade de reiniciar containers ou interromper fluxos de trabalho críticos.
  • Precisão técnica: O sistema permite solicitações refinadas, onde o usuário define exatamente quanta memória ou qual arranjo de interconexão é necessário para uma aplicação específica de aprendizado de máquina.

Foco em Segurança: A chegada da Computação Confidencial

Um dos pontos mais sensíveis para empresas que lidam com dados bancários ou prontuários médicos é a segurança na nuvem. Até então, o isolamento de cargas de trabalho em GPUs era um desafio técnico.

Junto à doação do driver, a NVIDIA introduziu o suporte para Kata Containers. Isso significa que agora é possível rodar processos de IA dentro de máquinas virtuais leves que funcionam como contêineres, mas com isolamento de hardware robusto. Essa camada extra de proteção garante que os dados processados pela GPU fiquem inacessíveis para outros processos do servidor, elevando o padrão de computação confidencial.

Escalabilidade para a arquitetura Blackwell

A doação não foca apenas no presente, mas prepara o terreno para a próxima geração de supercomputadores. O driver DRA já integra suporte nativo para o NVIDIA Multi-Node NVLink, tecnologia essencial para os novos sistemas Grace Blackwell.

Em termos práticos, isso permite que centenas ou milhares de GPUs em diferentes nós de um data center “conversem” entre si com latência mínima, funcionando como um único superprocessador. Para o treinamento de modelos de linguagem de grande escala (LLMs), essa integração nativa com o Kubernetes é o que permitirá que a próxima onda de IAs seja treinada de forma mais rápida e com menor desperdício de energia.

Além dos drivers: O ecossistema KAI e OpenShell

A estratégia de abertura da NVIDIA em 2026 parece ser ampla. Além do driver DRA, o agendador de cargas de trabalho KAI Scheduler foi integrado como um projeto Sandbox da CNCF.

Outros projetos de código aberto foram destacados, como o NVIDIA OpenShell, voltado para a execução segura de agentes autônomos, e o Grove, uma API que simplifica a orquestração de sistemas de inferência complexos. Ao abrir essas ferramentas, a empresa tenta padronizar a forma como a IA é executada, independentemente de qual provedor de nuvem (AWS, Google Cloud ou Azure) o desenvolvedor esteja utilizando.

Análise: Por que a mudança agora?

Embora possa parecer um gesto de pura filantropia tecnológica, a abertura desses drivers é uma manobra estratégica. O mercado de IA está sob intensa pressão para se tornar mais transparente e menos dependente de “ecossistemas fechados”.

Ao entregar essas ferramentas para a comunidade, a NVIDIA neutraliza críticas sobre monopólio de software e garante que sua arquitetura continue sendo o padrão da indústria, agora validada e aprimorada por milhares de desenvolvedores independentes. Para o usuário final e para as empresas, o resultado é uma infraestrutura de IA mais estável, segura e, acima de tudo, eficiente.

Com informações de: NVIDIA Developer Blog

O post NVIDIA faz doação histórica de drivers de GPU para a comunidade de código aberto; entenda o impacto apareceu primeiro em Modo Hard.

]]>
https://modohard.com.br/nvidia-doacao-drivers-gpu-kubernetes-codigo-aberto/feed/ 0
NVIDIA lança OpenShell para segurança de agentes autônomos de IA https://modohard.com.br/nvidia-openshell-seguranca-agentes-ia/ https://modohard.com.br/nvidia-openshell-seguranca-agentes-ia/#comments Mon, 23 Mar 2026 20:33:56 +0000 https://modohard.com.br/?p=5652 A NVIDIA anunciou nesta segunda-feira (23) o lançamento do OpenShell, um ambiente de execução (runtime) de código aberto voltado para a segurança de agentes de inteligência artificial autônomos. A ferramenta introduz uma camada de política de infraestrutura para controlar as ações da IA, movendo a segurança do nível da aplicação para o nível do sistema. […]

O post NVIDIA lança OpenShell para segurança de agentes autônomos de IA apareceu primeiro em Modo Hard.

]]>
A NVIDIA anunciou nesta segunda-feira (23) o lançamento do OpenShell, um ambiente de execução (runtime) de código aberto voltado para a segurança de agentes de inteligência artificial autônomos. A ferramenta introduz uma camada de política de infraestrutura para controlar as ações da IA, movendo a segurança do nível da aplicação para o nível do sistema.

Diferente das abordagens anteriores, que dependiam de instruções no prompt para restringir o comportamento do modelo, o OpenShell utiliza uma arquitetura de sandbox (isolamento de processos). Isso garante que cada agente opere em uma sessão separada, impedindo o acesso não autorizado a credenciais ou dados privados do sistema operacional host.

Camada de política e isolamento

O avanço dos agentes autônomos permite que sistemas de IA executem fluxos de trabalho complexos, como leitura de arquivos e execução de códigos em ambientes corporativos. Entretanto, essa autonomia amplia a superfície de ataque em casos de comprometimento do modelo.

O OpenShell atua como um “modelo de aba de navegador” aplicado aos agentes. Antes de qualquer ação ser executada, o ambiente verifica permissões e controla o acesso a recursos. Segundo a NVIDIA, essa estrutura impede que o agente ignore as políticas de segurança ou extraia dados sensíveis, mesmo que o modelo sofra uma tentativa de manipulação externa.

Integração e ecossistema de parceiros

A segurança de sistemas autônomos exige uma integração entre diferentes camadas da pilha tecnológica. Para viabilizar a implementação em escala empresarial, a NVIDIA confirmou colaborações com empresas de cibersegurança e infraestrutura em nuvem, incluindo:

  • Cisco e CrowdStrike
  • Google Cloud e Microsoft Security
  • TrendAI

O objetivo dessa cooperação é padronizar a aplicação de políticas de conformidade e supervisão operacional em diferentes sistemas operacionais e ambientes de nuvem.

NemoClaw e implantação local

Junto ao OpenShell, foi apresentada a pilha de referência NVIDIA NemoClaw. O projeto de código aberto permite a configuração de assistentes pessoais sempre ativos utilizando os modelos NVIDIA Nemotron.

A solução foi projetada para rodar em diversos ambientes, desde workstations com NVIDIA RTX e laptops GeForce RTX até supercomputadores como o NVIDIA DGX. O NemoClaw fornece exemplos de configurações de privacidade que podem ser ajustadas conforme a necessidade do usuário, similar ao gerenciamento de permissões em sistemas móveis.

Atualmente, tanto o OpenShell quanto o NemoClaw estão em fase de visualização antecipada (early preview). O código fonte e a documentação técnica foram disponibilizados no GitHub e na plataforma NVIDIA Brev para testes pela comunidade de desenvolvedores.

O post NVIDIA lança OpenShell para segurança de agentes autônomos de IA apareceu primeiro em Modo Hard.

]]>
https://modohard.com.br/nvidia-openshell-seguranca-agentes-ia/feed/ 2