Arquivos inteligência artificial - Revista Algomais - a revista de Pernambuco

inteligência artificial

openai chatgpt 5cvw.960

Inteligência Artificial Generativa: um divisor de águas em 2023?

*Por Rafael Toscano O ano de 2022 foi ímpar para a IA. Muita tecnologia foi desenvolvida, e, mais do que isso, muitas ferramentas foram disponibilizadas e popularizadas, com um grande destaque para a ChatGPT. A IA generativa tornou-se um tópico quente para entusiastas, técnicos, investidores, empresas privadas, formuladores de políticas públicas e para a sociedade em geral. Como o nome sugere, a IA generativa produz ou gera texto, imagens, música, fala/discurso, código fonte para computadores e até mesmo vídeos. A IA generativa não é exatamente um conceito novo, mas as técnicas de aprendizado de máquina por trás da IA generativa evoluíram exponencialmente na última década por conta de todo o avanço em processamento de dados. Em contraponto à atual desaceleração do mercado e demissões no setor de tecnologia, as empresas que oferecem produtos de IA generativa continuam recebendo interesse dos investidores. Estima-se que o mercado da IA generativa pode gerar trilhões de dólares em valor econômico nos próximos anos. O fato é que mais de 150 startups significativa surgiram em todo o globo e já estão ocupando espaço nesse oceano azul. A IA generativa vai além das tarefas típicas de processamento de linguagem natural, como tradução de idiomas, resumo e geração de texto. Recentemente, no lançamento da IA ChatGPT, pode-se acompanhar um efeito viral que alcançou mais de um milhão de usuários em apenas cinco dias. Com base em uma nova era de cooperação entre homem e máquina, os entusiastas afirmam que a IA generativa ajudará o processo criativo de artistas e designers, pois as tarefas existentes serão facilitadas por sistemas de IA generativa, acelerando a concepção e, essencialmente, a fase de criação. Entretanto, muito embora a IA generativa deixe as pessoas empolgadas com essa nova onda de criatividade, há preocupações sobre a aplicação e o impacto desses modelos na sociedade. Artistas, por exemplo, temem que a internet seja inundada com obras de arte indistinguíveis das suas, simplesmente dizendo ao sistema para reproduzir uma obra de arte em seu estilo (que até então poderia ser considerado único). Nesse sentido, reverbera a preocupação de que parte da força de trabalho criativa, incluindo artistas do entretenimento, videogames, publicidade, etc, possam perder suas funções por causa de modelos generativos de IA. Embora a IA generativa seja um divisor de águas em várias áreas e tarefas, há uma forte necessidade de controlar a difusão desses modelos, amortecendo seus impactos na sociedade e na economia. A discussão emerge, por um lado, da adoção centralizada e controlada com limites éticos firmes, versus inovação mais rápida e distribuição descentralizada. Já dizia o Tio Ben do Homem-Aranha: “Com grandes poderes vêm grandes responsabilidades”. Rafael Toscano é gestor financeiro, Engenheiro da Computação e Especialista em Direito Tributário, Gestão de Negócios. Gestor de Projetos Certificado, é Mestre em Engenharia da Computação e Doutorando em Engenharia com foco em Inteligência Artificial aplicada. LEIA TAMBÉM

Inteligência Artificial Generativa: um divisor de águas em 2023? Read More »

Inteligência artificial para diagnosticar a COVID-19 e prever risco de complicações

Um método que permite diagnosticar a COVID-19 em cerca de 20 minutos – com baixo custo e sem a necessidade de reagentes importados – foi descrito por pesquisadores brasileiros em artigo divulgado na plataforma medRxiv, ainda sem revisão por pares. O sistema usa algoritmos de inteligência artificial capazes de reconhecer em amostras de plasma sanguíneo de pacientes um padrão de moléculas característico da doença. Segundo os autores, também é possível identificar, entre os casos confirmados, os indivíduos com maior risco de desenvolver manifestações graves, como insuficiência respiratória. O projeto é apoiado pela FAPESP e envolve pesquisadores da Universidade Estadual de Campinas (Unicamp) e da Universidade de São Paulo (USP), além de colaboradores no Amazonas. “Nos testes feitos para validar a metodologia, conseguimos diferenciar as amostras positivas e negativas com um acerto de mais de 90%. Também fizemos a diferenciação entre casos graves e leves com acerto em torno de 82%. Agora, estamos iniciando o processo de certificação junto à Anvisa (Agência Nacional de Vigilância Sanitária)”, conta à Agência FAPESP o professor da Unicamp Rodrigo Ramos Catharino, coordenador da pesquisa. Segundo ele, o exame, quando em operação, poderia custar em torno de R$ 40 por amostra, cerca de metade do preço de custo do RT-PCR, método considerado padrão-ouro para diagnóstico da COVID-19. O trabalho vem sendo desenvolvido no Laboratório Innovare de Biomarcadores, durante o doutorado de Jeany Delafiori, e integra uma linha de pesquisa que combina técnicas de metabolômica e aprendizado de máquina para buscar marcadores capazes de auxiliar o diagnóstico de doenças como zika, dengue hemorrágica, fibrose cística, diabetes e outros distúrbios metabólicos. O grupo trabalha em parceria com o Laboratório de Inferência em Dados Complexos (Recod) do Instituto de Computação (IC) da Unicamp, coordenado pelo professor Anderson Rocha e conta com a participação de seu colaborador Luiz Claudio Navarro. “O projeto contou com a participação de 728 pacientes – sendo 369 com diagnóstico de COVID-19 confirmado clinicamente e por RT-PCR. As amostras de indivíduos não infectados foram usadas para comparação, como uma espécie de grupo controle. No caso de alguns pacientes que desenvolveram complicações e precisaram ser internados, foi coletada uma segunda amostra de sangue. De modo geral, entre os casos confirmados, havia indivíduos com sintomas leves e graves”, conta Delafiori. Todas as amostras foram analisadas em um equipamento conhecido como espectrômetro de massas, capaz de discriminar as substâncias presentes em fluidos corporais. Como explicam os pesquisadores, esse conjunto de moléculas encontrado no plasma sanguíneo retrata os diversos processos metabólicos ativos no organismo. “Nos concentramos nas moléculas de baixo peso molecular, como os aminoácidos, os pequenos peptídeos e os lipídeos. Elas surgem na parte final dos processos metabólicos e, portanto, estão mais diretamente ligadas aos sintomas que os pacientes estavam manifestando no momento da coleta”, explica Delafiori. Parte das amostras foi então usada pela equipe do IC-Unicamp para ensinar um método de inteligência artificial a reconhecer padrões de metabólitos encontrados nos casos positivos e nos negativos, bem como diferenciar os padrões dos casos leves e graves. A outra parte foi usada em um teste cego, cujo objetivo foi avaliar o acerto final da análise feita pelo sistema. Segundo os dados do artigo, o método alcançou 97,6% de especificidade e 83,8% de sensibilidade para o diagnóstico da doença no teste cego. Já em relação à análise de risco para manifestação grave a especificidade foi de 76,2% e a sensibilidade foi de 87,2%. “Sensibilidade [também conhecido como sensitividade] é o parâmetro que indica o quão sensível o método é para detectar a presença ou ausência da COVID-19. Já especificidade tem a ver com a capacidade de diferenciar a COVID-19 de outras condições de saúde. Esses dois parâmetros, quando analisados em conjunto, determinam a taxa de acerto”, explica Delafiori. “Ainda estamos trabalhando para melhorar a taxa de acerto do exame, à medida que novas amostras de pacientes são coletadas por nossos colaboradores.” De acordo com Rocha, o algoritmo desenvolvido é capaz de incorporar conhecimento na medida em que analisa novas amostras, o que tende a se refletir em uma melhora na performance com o passar do tempo. “Se hoje ele tem uma taxa de acerto em torno de 90%, é provável que acerte ainda mais quando chegar a milhares de pacientes analisados”, afirma o pesquisador. A equipe do IC-Unicamp também criou um software para automatizar todo o processo de análise e gerar, no final, um relatório que informa para o médico se o paciente tem a COVID-19 e se apresenta risco de complicações. “Esses biomarcadores preditores de evolução da doença podem, por exemplo, ajudar o médico da assistência básica a decidir se o paciente que testar positivo pode ser mantido em isolamento domiciliar ou se deve ser transferido para um centro de maior complexidade”, comenta Rinaldo Focaccia Siciliano, médico assistente da Divisão de Moléstias Infecciosas e Parasitárias do Hospital das Clínicas (HC-FM-USP) e da Unidade de Controle de Infecção Hospitalar do Instituto do Coração (InCor), um dos coautores do artigo. Na avaliação de Siciliano, o método tem mostrado um bom desempenho para detectar tanto os casos leves, nos primeiros dias de sintomas, como também os mais avançados, de pacientes que já apresentam falta de ar na admissão ao hospital. “A vantagem de ter vários centros participando do projeto, com diferentes perfis, é a variabilidade das amostras. Isso permite que seja possível aplicar a metodologia em diferentes cenários, tanto ambulatorial quanto hospitalar”, diz. Outro avanço apontado pelo pesquisador é a possibilidade de diagnosticar precocemente a doença por meio de uma amostra de sangue, mais fácil de ser coletada do que a secreção nasal usada no teste de RT-PCR. “A coleta com swab [cotonete comprido inserido no fundo do nariz] requer equipe bem treinada e sala apropriada, pois há risco de dispersão de aerossóis contaminados com o vírus. E o teste sanguíneo atualmente disponível só é capaz de detectar anticorpos alguns dias depois do surgimento dos sintomas.” Modelo otimizado Enquanto a maioria dos testes laboratoriais analisa no sangue os níveis de algumas poucas substâncias, o sistema computacional desenvolvido pela equipe da Unicamp é capaz

Inteligência artificial para diagnosticar a COVID-19 e prever risco de complicações Read More »

Sistema usa inteligência artificial para prever ocorrências de crimes em áreas urbanas

Na região central da cidade de São Paulo há 1.522 esquinas com maior probabilidade de ocorrência de assalto a transeuntes, além de outros pontos com alto risco de furtos e roubo de veículos ou de carga. Juntos, esses locais são responsáveis por quase metade dos registros desses tipos de crimes no centro da capital paulista. A identificação dessas regiões na cidade, que devem merecer maior atenção dos agentes de segurança pública, tem sido feita por meio de ferramentas baseadas em ciências de dados e inteligência artificial, desenvolvidas nos últimos anos por pesquisadores vinculados ao Centro de Ciências Matemáticas Aplicadas à Indústria (CeMEAI) – um dos Centros de Pesquisa, Inovação e Difusão (CEPIDs) financiados pela FAPESP. As ferramentas computacionais despertaram o interesse de órgãos e secretarias de segurança pública de cidades como São Carlos, no interior paulista, afirma Luis Gustavo Nonato, pesquisador responsável pelo projeto.“O objetivo é que essas ferramentas possam ajudar esses órgãos a predizer regiões das cidades com maior probabilidade de ocorrência de crimes, visando a implementação de ações preventivas”, diz Nonato. Uma das linhas de pesquisa do CeMEAI, sediado no Instituto de Ciências Matemáticas e de Computação da Universidade de São Paulo (ICMC-USP), campus de São Carlos, é a aplicação de técnicas de ciência de dados para compreender o impacto de fatores como a infraestrutura urbana, o fluxo de pessoas e até mesmo o clima em problemas como, por exemplo, o da criminalidade. Para realizar os estudos, são empregadas ferramentas da área de computação, matemática e estatística, mesclando técnicas de ciência de dados e de inteligência artificial, em especial, de aprendizado de máquina. Os resultados dessas análises complexas são apresentados por meio de plataformas de visualização computacional, de modo a facilitar a interação dos gestores públicos com os dados disponibilizados. “A ideia é ajudar os gestores a entender como esses fatores se correlacionam com ocorrências criminais, por exemplo, para auxiliar na criação de políticas públicas de baixo custo e com grande impacto econômico e social nas cidades”, diz Nonato. Criminalidade no entorno de escolas O projeto foi iniciado em 2015 por meio de uma colaboração com o Núcleo de Estudos da Violência (NEV), outro CEPID financiado pela FAPESP. No âmbito dessa parceria, os pesquisadores do CeMEAI puderam ter acesso a uma grande quantidade de dados sobres crimes na cidade de São Paulo reunidos pelo NEV e empregar ferramentas de ciência de dados e inteligência artificial para identificar padrões de criminalidade e suas relações com variáveis externas associadas à infraestrutura urbana. A primeira ferramenta desenvolvida por meio da parceria foi o CrimAnalyzer – uma plataforma que possibilita identificar padrões de criminalidade ao longo do tempo em regiões da cidade e, dessa forma, verificar quais são os mais prevalentes em termos quantitativos, por exemplo. Por meio da plataforma, os pesquisadores realizaram estudo para avaliar a relação entre a criminalidade e a infraestrutura no entorno de escolas públicas na cidade de São Paulo. Reuniram dados de indicadores socioeconômicos, informações sobre a infraestrutura urbana, como pontos de ônibus e bares, além do fluxo de pessoas e histórico de crimes, como assalto a pedestres, de estabelecimentos comerciais e roubo de carros, durante o dia, à tarde, à noite e de madrugada, em um raio de 200 metros no entorno de 6 mil escolas públicas em São Paulo. Constataram que as escolas localizadas em regiões da cidade com melhores indicadores socioeconômicos e cercadas por um grande número de pontos de ônibus tendem a apresentar um maior número de crimes, principalmente roubo de carros e assalto a transeuntes – este último concentrado no período da tarde. O intenso fluxo de pessoas devido ao grande número de pontos de ônibus pode ser o fator a explicar o volume de assaltos de pedestres, diz Nonato. “Existe uma forte correlação entre pontos de ônibus e crimes no entorno dessas escolas”, afirma o pesquisador. “Isso mostra a efetividade dessa metodologia de ciências de dados para revelar padrões”, avalia Nonato. Resultado de uma colaboração, além do NEV-USP, com a Escola de Matemática Aplicada da Fundação Getúlio Vargas (FGV), as universidades federais do Espírito Santo (UFES) e de Alagoas (UFAL) e a New York University, dos Estados Unidos, o projeto está sendo implementado em São Carlos por meio de convênio da Secretaria de Segurança Pública da Prefeitura Municipal com o ICMC/USP para utilizar as ferramentas. “A prefeitura de São Carlos tem viabilizado o acesso a diversos dados, possibilitando um grande avanço no projeto”, diz Nonato. Séries temporais Uma das limitações do CrimAnalyzer é que os dados dos crimes estavam agregados por setor censitário – unidade territorial estabelecida para fins de controle cadastral, formada por área contínua e situada em um único quadro urbano ou rural. Essa forma de apresentação de dados prejudicava a captura de padrões de criminalidade. Em razão dos resultados alcançados com o projeto, os pesquisadores começaram a ter acesso a dados georreferenciados sobre crimes na cidade de São Paulo e desenvolveram uma nova ferramenta, batizada de Mirante. “O acesso aos dados georreferenciados fez uma diferença enorme no poder de análise e também na forma como passamos a apresentar e obter os padrões de criminalidade”, afirma Nonato. Por meio de tratamentos estatísticos, a plataforma faz o geoprocessamento em mapas de rua e, dessa forma, permite avaliar mudanças no padrão de criminalidade em locais da cidade ao longo do tempo. Ao analisar uma esquina em São Paulo que em 2010 não registrava roubos de veículos e que, a partir de 2017, começou a registrar, os pesquisadores observaram que um dos fatores que contribuíram para essa mudança foi a alteração no lado da via liberada para estacionamento.. Antes de 2010 era proibido estacionar no lado da via de mão dupla que dá acesso a uma avenida principal com ligação a uma via marginal. Com a liberação para estacionamento, aumentou o roubo de carros na região. “Isso pode ter facilitado aos criminosos roubar carros e sair rapidamente para a marginal, enquanto anteriormente eles teriam que dar uma volta dentro do bairro para poder ter acesso à marginal”, explica Nonato. Padrões de criminalidade

Sistema usa inteligência artificial para prever ocorrências de crimes em áreas urbanas Read More »

Dalla Nora: "Inteligência artificial pode silenciar robôs e sites que criam Fake News"

Paulo Dalla Nora Macedo, co-fundador e vice-presidente do Instituto Política Viva, foi um dos entrevistados na matéria da semana passada sobre Fake News. Publicamos hoje a conversa com ele sobre as alternativas para o País superar esse desafio que tumultuou o debate público no Brasil. O Política Viva nasceu em 2013 para promover o debate político crítico e construtivo que recupere os ideais republicanos com integridade e ponderação. . Além de acirrar a polarização política, que outros prejuízos as Fake News oferecem a sociedade brasileira na sua opinião? O maior mal das Fake News é criar uma agenda de prioridades falsas, distorcer quais os temas que de fato preocupam a sociedade ou distorcer como ela pensaria sobre os temas. Como o congresso e o executivo trabalham muito de acordo com as prioridades da população e das suas posições, a máquina de fake news quer sequestrar a agenda do Pais. . Quais as principais descobertas das pesquisas acessadas ou elaboradas pelo Política Viva sobre as Fake News?  O Política Viva tem como pilar defender a política e lutar contra as fakes news. Temos vários estudos sobre o assunto:as notícias falsas são 70% mais compartilhadas que as verdadeiras, mais de 60% do tráfego nas redes sobre política são gerados por robôs, fora esses robôs existem em torno de 5 mil "engajados" profissionais que criam as narrativas, ou seja existe muito pouca espontaneidade. O instituto Reuters divulgou em pesquisa recente que 84% dos brasileiros não confiam no que lêem nas redes, no entanto são essas redes que estão sequestrando o debate. . O combate às Fake News no Brasil tem alcançado algum resultado? Muito tímido ainda. O combate só vai começar a ser efetivo quando a ser efetivo quando as plataformas forem pressionadas economicamente a agir contra os robôs e páginas que eles sabem que disseminam fake news. A Coca Cola e a Unilever recentemente anunciaram que vão deixar de anunciar no Facebook e twitter. Esse é o passo importante. . Quais os caminhos para se evitar a disseminação ou o impacto tão negativo das Fake News na sociedade? Há alguma contribuição tecnológica para isso? Sim, não temos dúvida que com inteligência artificial é possível silenciar esses robôs e os sites que existem para criar fake news, é muito fácil identificar isso e barrar. O problema é que eles são geradores de tráfego e isso e receita. As pessoas têm que entender que um blog postar que Coronavírus não existe, que você pode ir para rua, não é liberdade de expressão. Liberdade de expressão não contempla crimes contra a saúde pública por exemplo, ou calúnia e difamação. Ou postar como absurdos se fossem verdades. As pessoas confundem opiniões com fatos, todo mundo tem direito a sua opinião, mas ao seu fato não. Blogs e canais que a existem para defender que a terra é plana serve para quê além de semear a dúvida em verdades cientificas? Por que as plataformas deixam no ar? Porque geram milhões com os seus vídeos bizarros. Se não fizemos nada vamos chegar ao ponto de quê não existe mais nenhuma verdade básica, só pessoas perturbadas, ou os que querem explicar a sua própria inadequação, gostariam de viver em um mundo assim.

Dalla Nora: "Inteligência artificial pode silenciar robôs e sites que criam Fake News" Read More »

Neurotech e Cesar School lançam curso de Machine Learning

Data Science e Machine Learning são dois termos abordados em todos os âmbitos de desenvolvimento e evolução de soluções. Pensando na qualificação do profissional que trabalham na área, a Cesar School lança o curso "Machine Learning Aplicado à Análise de Dados", em parceria com a Neurotech, empresa surgida no Porto Digital e pioneira na aplicação prática de inteligência artificial nos mercados de crédito e seguro brasileiros. “Acreditamos que a Inteligência Artificial estará por todas as partes e precisamos dar nossa contribuição formando gente boa nesta área. Com mais de 20 anos de experiência prática na extração de conhecimento a partir dos dados, junto com a Cesar School trazemos esse excelente curso prático”, afirma Rodrigo Cunha, Head do Neurolake na Neurotech, um dos professores do curso. Mais informações sobre o cursos podem ser obtidas no link: https://www.cesar.school/machine-learning-aplicado-a-analise-de-dados/

Neurotech e Cesar School lançam curso de Machine Learning Read More »