quinta-feira, 17 de julho de 2025

Beba água! Esse sensor avisa se você está desidratado

 Dispositivo de bioimpedância envia dados ao celular e pode ajudar desde atletas até pacientes com doenças crônicas

Por Leandro Costa Criscuolo, editado por Bruno Capozzi 17/07/2025 06h30
água
Imagem: Detry26/iStock

Pesquisadores da Universidade do Texas em Austin desenvolveram um sensor vestível inovador, capaz de monitorar os níveis de hidratação em tempo real, funcionando como uma espécie de “luz de alerta” para o corpo.

O dispositivo, que se prende ao bíceps, utiliza uma corrente elétrica imperceptível para medir a bioimpedância — um indicador da quantidade de água no corpo.

Recomendados para você

  

Como a água é um bom condutor elétrico, tecidos desidratados oferecem maior resistência à passagem de corrente, permitindo que o sensor detecte mudanças sutis nos níveis de hidratação.

O sensor usado no teste foi fixado no bíceps, mas os pesquisadores dizem que outros sensores poderiam ser desenvolvidos para funcionar em outras partes do corpo – Imagem: Universidade do Texas

Tecnologia pode ser maneira eficaz de evitar desidratação

  • Os dados coletados pelo sensor são enviados continuamente e sem fio a um aplicativo de smartphone, que permite o monitoramento contínuo da hidratação.
  • Em testes, voluntários foram submetidos à desidratação induzida por diuréticos, e os resultados obtidos pelo sensor mostraram forte correlação com análises químicas de urina, validando sua precisão.
  • O dispositivo tem grande potencial para auxiliar pessoas expostas a riscos de desidratação, como atletas, socorristas, bombeiros, policiais e soldados — especialmente aqueles que trabalham sob calor intenso ou vestem roupas pesadas.
  • Além disso, pode ser usado em ambientes médicos para monitorar pacientes com doenças renais, cardiovasculares ou outras condições sensíveis à hidratação.

Leia mais:

Tecnologia portátil desenvolvida nos EUA usa bioimpedância para alertar usuários sobre desidratação em tempo real – Imagem: Yuri Arcurs/Freepik

Novos testes a caminho

A próxima etapa da pesquisa inclui testes em uma população maior para estabelecer parâmetros de hidratação e o desenvolvimento de novos formatos do sensor.

A líder do estudo, Nanshu Lu, já trabalha com tecnologias similares, como tatuagens eletrônicas para monitoramento de suor, e acredita que esses dispositivos poderão ser adaptados para diferentes necessidades.

Segundo ela, o objetivo final é tornar o monitoramento da hidratação algo simples, contínuo e acessível para todos. O estudo foi publicado na revista PNAS.

Mulher bebendo água
Novo sensor indica quando você precisa beber água (Imagem: Yurii Yarema/iStock)

Startup brasileira lança agentes de IA para acabar com burocracia na saúde

 Tecnologia pretende dar mais agilidade aos agendamentos e automatizar tarefas para economizar mais de 200 horas de trabalho humano

Leandro Costa Criscuolo17/07/2025 06h40
atestado_medico-1920x1080
Imagem: raker/Shutterstock

A Tivita, como já falamos antes, é uma startup que trabalha com tecnologias que conseguem automatizar tarefas em consultórios, acaba de lançar oficialmente duas agentes digitais baseadas em inteligência artificial, batizadas de Julia e Tais.

Apresentadas na última terça-feira (15) em evento em um hotel em São Paulo, com reportagem do Olhar Digital, as agentes atuam como colaboradoras virtuais integradas à plataforma da Tivita.

Recomendados para você

  

Potencialize seu trabalho com IA!

Aprenda a criar agentes de Inteligência Artificial que trabalham 24 horas por você!
Conheça o curso de IA & Automação de Agentes com N8N da Impacta em parceria com o Olhar Digital.

Oferta Exclusiva: Assine o plano anual do Clube Olhar Digital por apenas R$ 58,99 e ganhe 10% de desconto imediato no curso.
A economia é maior que o valor da assinatura!

Aproveite essa oportunidade e dê o próximo passo rumo à automação inteligente!

Assine Agora e Economize!

Estas IAs serão capazes de automatizar agendamentos, fazendo a emissão de guias e a comunicação com operadoras de saúde. A proposta é que os demais funcionários fiquem livres dessas tarefas e foquem em atividades estratégicas.

Evento em São Paulo apresentou IAs da startup e discutiu futuro do setor – Imagem: Divulgação

No que cada uma dessas IAs vai ajudar

  • Julia, responsável pelos agendamentos, opera 24/7 com respostas empáticas e personalizadas, reduzindo em até 8 vezes o tempo médio de atendimento e aumentando em 20% a conversão de pacientes.
  • Já Tais atua no faturamento médico e já demonstrou ser 75 vezes mais rápida do que o processo manual em tarefas com operadoras, gerando uma economia de mais de 200 horas de trabalho humano.
  • A tecnologia já está integrada a mais de dez grandes operadoras de saúde, como Bradesco, SulAmérica, Amil, Porto Seguro e CarePlus.

Leia mais:

Tarefas das assistentes de IA prometem deixar o atendimento de consultórios mais eficaz – Imagem: Divulgação

“Depois de um primeiro ano de estruturação e um segundo de crescimento na prática celebramos agora o início de uma nova fase. Com os agentes digitais da Tivita, clínicas passam a contar com colaboradores que operam 24/7, sem pausas, com padronização e rastreabilidade”, afirmou Claudio Franco, CEO e cofundador da Tivita.

Painel discutiu impacto da IA no mercado latino

Durante o evento de lançamento, que reuniu investidores e líderes do setor, também ocorreu um painel sobre competitividade latino-americana em IA.

“As startups que estão apostando em inteligência artificial desde já estão construindo uma vantagem competitiva estrutural. A IA, quando aplicada com precisão, muda não só o custo operacional, mas a lógica do negócio”, destacou Carlos Alonso, da FinTech Collective.

Com ajuda da IA, a Tivita vai ampliar seu serviço de automação na área da saúde – Imagem: Divulgação

Como as IAs “pensam” e por que devemos monitorá-las

 Entenda o que são as 'cadeias de pensamento' das IAs e por que monitorá-las é essencial para identificar erros e aumentar a segurança

Por Beatriz Campos, editado por Bruno Capozzi 17/07/2025 06h50
shutterstock_2462546293-1-1920x1080
(Imagem: frank60/Shutterstock)

Você já parou para imaginar como um modelo de inteligência artificial chega às respostas para suas perguntas? Como uma IA “pensa”? Muitas vezes, os modelos de IA utilizam um processo chamado cadeias de pensamento, ou CoTs, sigla para chains of thought em inglês.

Pesquisadores de grandes empresas como OpenAI, Google DeepMind, Meta, Anthropic e muitas outras, junto com organizações sem fins lucrativos, alertam para a importância de monitorar as CoTs. O apelo foi feito em um artigo publicado nesta semana. No resumo do artigo, os pesquisadores explicam:

Recomendados para você

  

Potencialize seu trabalho com IA!

Aprenda a criar agentes de Inteligência Artificial que trabalham 24 horas por você!
Conheça o curso de IA & Automação de Agentes com N8N da Impacta em parceria com o Olhar Digital.

Oferta Exclusiva: Assine o plano anual do Clube Olhar Digital por apenas R$ 58,99 e ganhe 10% de desconto imediato no curso.
A economia é maior que o valor da assinatura!

Aproveite essa oportunidade e dê o próximo passo rumo à automação inteligente!

Assine Agora e Economize!

“Sistemas de IA que ‘pensam’ em linguagem humana oferecem uma oportunidade única para a segurança da IA: podemos monitorar suas cadeias de pensamento (CoTs) para identificar intenções de se comportar de forma inadequada. Assim como todos os outros métodos conhecidos de supervisão de IA, o monitoramento de CoTs é imperfeito e permite que alguns comportamentos indevidos passem despercebidos.”

Esses modelos de raciocínio são uma tecnologia central para agentes de IA. Os autores do artigo argumentam que o monitoramento das CoTs pode ser um método essencial para manter esses agentes sob controle, à medida que se tornam mais difundidos e capazes.

Leia mais:

Como os erros podem ser identificados?

As CoTs se assemelham a rascunhos que nós, seres humanos, também usamos para resolver problemas. São esses rascunhos que devem ser acompanhados pelos desenvolvedores. Para isso, os pesquisadores alertam para a necessidade de fazer com que os modelos de IA “pensem em voz alta”.

Para resolver problemas mais complexos, os modelos de IA sempre recorrem às cadeias de pensamento e precisam externalizar seu raciocínio. Isso permite que esse raciocínio seja monitorado e torna possível identificar comportamentos inadequados.

As CoTs revelam como IAs estruturam seu raciocínio para resolver problemas complexos
(Imagem: Who is Danny/Shutterstock)

Os autores do artigo recomendam mais pesquisas sobre a monitorabilidade das CoTs e investimentos em seu monitoramento, aliados aos métodos de segurança existentes. E alertam:

“Como a monitorabilidade das CoTs pode ser frágil, recomendamos que os desenvolvedores de modelos de ponta considerem o impacto de suas decisões de desenvolvimento sobre essa capacidade.”

Entender quais fatores aumentam ou reduzem a transparência sobre como os modelos realmente chegam às respostas é essencial para evitar intervenções que possam comprometer sua confiabilidade.

Quem assinou o artigo?

Entre os signatários notáveis estão:

  • Mark Chen (diretor de pesquisa da OpenAI)
  • Ilya Sutskever (CEO da Safe Superintelligence)
  • Geoffrey Hinton (laureado com o Nobel)
  • Shane Legg (cofundador da Google DeepMind)
  • Dan Hendrycks (conselheiro de segurança da xAI)
  • John Schulman (cofundador da Thinking Machines)

Também assinam líderes do Instituto de Segurança em IA do Reino Unido e da Apollo Research, além de representantes da METR, Amazon, Meta e UC Berkeley.

O artigo representa um momento de união dentro do setor e um esforço para impulsionar a pesquisa em segurança. Pode indicar, ainda, a necessidade crescente de regulamentação para a inteligência artificial.

O artigo foi assinado por representantes de empresas como OpenAI, Google DeepMind, Meta e Anthropic (Imagem: Tada Images/Shutterstock)

Ao mesmo tempo, as empresas disputam pesquisadores especializados em IA e modelos de raciocínio. A Meta contratou pesquisadores de ponta da OpenAI, Google DeepMind e Anthropic com ofertas milionárias.

Em entrevista ao TechCrunch, Bowen Baker, pesquisador da OpenAI que trabalhou no artigo, disse:

“Estamos em um momento crítico com essa nova abordagem de cadeia de pensamento. Parece bastante útil, mas pode desaparecer em alguns anos se as pessoas não se concentrarem nisso. Publicar um artigo de posição como este, para mim, é uma forma de atrair mais pesquisa e atenção para esse tema antes que seja tarde.”

Bowen Baker

Boas iniciativas em prática

Anthropic tem liderado na área de interpretabilidade — o campo que estuda como os modelos de IA realmente funcionam. A empresa se comprometeu a “abrir a caixa-preta” dos modelos até 2027 e aumentar os investimentos em interpretabilidade. Dario Amodei, CEO da empresa, pediu que a OpenAI e a Google DeepMind pesquisem mais sobre o tema.

Claude é o modelo de IA da Anthrophic. De acordo com a empresa, o modelo se conecta ao seu mundo e amplia o que você pode fazer (Imagem: T. Schneider/Shutterstock)

As primeiras pesquisas da Anthropic indicam que as CoTs podem não ser uma indicação totalmente confiável de como os modelos chegam às respostas. Ao mesmo tempo, pesquisadores da OpenAI afirmam que o monitoramento de CoTs pode, no futuro, ser uma forma confiável de acompanhar o alinhamento e a segurança dos modelos.

É possível que o artigo incentive ainda mais investimentos e estudos na área.

Total de visualizações de página