Arquivos Inteligência Artificial - Revista Algomais - A Revista De Pernambuco

inteligência artificial

inteligencia artificial humano

Navegando em Águas Turbulentas

Entre avanços tecnológicos e riscos invisíveis, o desafio é garantir que a IA sirva à justiça, à diversidade e ao bem comum *Por Rafael Toscano Toda nova tecnologia traz promessas. Mas também traz riscos. A inteligência artificial, com seu poder de decidir, prever e aprender, nos obriga a fazer uma pausa — olhar para os lados, olhar para trás e olhar para dentro. Não basta perguntar o que podemos fazer com ela. É preciso perguntar: o que devemos fazer com ela? A história está cheia de lições. A Revolução Industrial gerou crescimento, mas também desigualdade. O progresso científico trouxe curas, mas também armas. Agora, com a IA, vivemos outro ponto de inflexão. Uma ferramenta poderosa está em nossas mãos — e como vamos usá-la depende de escolhas éticas. Já falamos sobre viés, privacidade, responsabilidade. Mas existe uma camada mais profunda: a da justiça social. Quem se beneficia da IA? Quem é deixado para trás? Algoritmos que distribuem crédito, indicam candidatos a vagas de emprego, preveem comportamentos criminais — todos podem reforçar estruturas de desigualdade se forem construídos sem diversidade, sem escuta, sem crítica. O problema não está na tecnologia em si, mas na forma como ela é desenvolvida, treinada e usada. Dados refletem a realidade. E a realidade, infelizmente, ainda carrega muitos preconceitos. Se a IA aprende com isso, ela perpetua. E às vezes, amplifica. Por isso, precisamos de transparência. Não podemos viver em um mundo governado por algoritmos que ninguém entende. É necessário saber como as decisões são tomadas, que critérios foram usados, de onde vieram os dados. Só assim podemos confiar — e corrigir o que estiver errado. Precisamos também de inclusão. As vozes que historicamente foram silenciadas precisam participar da construção desse futuro. Não podemos aceitar que uma tecnologia que molda o mundo seja decidida por um grupo pequeno e homogêneo. A IA não é um luxo técnico; é uma questão de cidadania. E há uma questão internacional: a governança global da IA. Diferentes países têm valores distintos, prioridades diferentes. Como criar um conjunto de princípios éticos que respeitem a diversidade cultural, mas que também protejam direitos universais como liberdade, dignidade, igualdade? Alguns já começaram. A Declaração de Montreal, as diretrizes da Unesco, as discussões no Fórum Econômico Mundial e em consórcios de empresas e universidades. Mas o caminho ainda é longo. E o ritmo da tecnologia é mais rápido que o da legislação. Precisamos de pontes entre esses mundos: entre ética e inovação, entre academia e mercado, entre ciência e sociedade. Em meio a tudo isso, há outro risco: o da superficialidade ética. Criar comitês, selos, códigos de conduta pode parecer suficiente — mas só faz sentido se vier acompanhado de ação real. Ética não é um adereço. É uma prática. É um compromisso. E talvez a maior responsabilidade seja nossa, como sociedade. Não podemos delegar tudo à tecnologia. Precisamos formar cidadãos capazes de questionar, analisar, participar. A alfabetização ética e digital tem que começar na escola, seguir nas universidades, nas empresas, nos governos. Uma IA justa exige uma sociedade vigilante e ativa. O futuro será moldado por decisões que estão sendo tomadas agora. Cada sistema implantado, cada dado coletado, cada algoritmo rodando em silêncio: todos têm consequências. Podemos optar por uma IA que sirva ao lucro, à vigilância, à exclusão. Ou podemos lutar por uma IA que amplifique o que temos de melhor: empatia, solidariedade, justiça. Não será fácil. Navegar em águas turbulentas exige firmeza no leme e clareza no horizonte. Mas temos referências. A luta por direitos civis. A Declaração Universal dos Direitos Humanos. Os movimentos por igualdade, por diversidade, por sustentabilidade. Todos eles nos ensinam que o progresso verdadeiro é aquele que inclui, que respeita, que escuta. Se a IA é a grande revolução do nosso tempo, que ela venha acompanhada de uma revolução ética — silenciosa, mas profunda. Que cada linha de código carregue não apenas lógica, mas cuidado. Que cada decisão algorítmica reflita não só eficiência, mas equidade. E que, ao final, possamos olhar para essa tecnologia não com medo, mas com orgulho — como algo que construímos juntos, com inteligência, mas sobretudo com humanidade. *Rafael Toscano é escritor, pesquisador e professor na CESAR School, engenheiro na Companhia Brasileira de Trens Urbanos e ocupa o cargo de Secretário Executivo de Ciência, Tecnologia e Negócios na Secretaria de Transformação Digital, Ciência e Tecnologia (SECTI) da Prefeitura do Recife. Formado em Engenharia da Computação pela UFPE, é Mestre e Doutor pela Universidade de Pernambuco. **Esse Texto integra o livro IA Transformação das Humanidades

Navegando em Águas Turbulentas Read More »

ia ideologia

Ética e Responsabilidade: IA com Consciência Social

Entre vieses, decisões autônomas e privacidade, a ética surge como eixo essencial para guiar o desenvolvimento da inteligência artificial rumo ao bem comum. *Por Rafael Toscano Se a inteligência artificial já está ajudando a compor músicas e corrigir provas, o que acontece quando ela começa a tomar decisões que afetam diretamente a vida das pessoas? Quem responde quando um carro autônomo sofre um acidente? Quem é o responsável por um algoritmo que comete injustiças? É nesse ponto que a ética entra na conversa — não como um detalhe, mas como o coração da questão. A IA não é neutra. Por trás de cada algoritmo, há escolhas humanas: que dados usar, que objetivos priorizar, o que ignorar. Essas decisões, ainda que técnicas, têm consequências morais. Quando um sistema de reconhecimento facial funciona bem para algumas pessoas e mal para outras, estamos diante de um problema ético — não apenas estatístico. Um exemplo emblemático são os algoritmos de recrutamento. Empresas começaram a usar IA para selecionar currículos com base em padrões aprendidos a partir de contratações anteriores. O resultado? A máquina aprendeu a reproduzir preconceitos existentes, excluindo perfis femininos ou de minorias com base em correlações injustas. A IA não “quis” ser injusta — mas aprendeu com o que os humanos fizeram. Esse fenômeno é conhecido como viés algorítmico, e aparece em áreas sensíveis como justiça criminal, concessão de crédito, diagnóstico médico e concessão de benefícios sociais. Em todos esses casos, a IA pode reforçar desigualdades se não for cuidadosamente projetada, testada e supervisionada. Outro dilema ético diz respeito à privacidade. Para funcionar bem, sistemas de IA precisam de dados — muitos dados. Isso significa coletar informações sobre nossas conversas, preferências, localização e hábitos. Até onde vai esse monitoramento? E quem controla esse fluxo de dados? Vivemos em uma era em que assistentes virtuais escutam o tempo todo, e câmeras com IA monitoram ruas, lojas e até nossos lares. Proteger a privacidade individual tornou-se uma das grandes batalhas éticas do nosso tempo. Além do viés e da privacidade, há ainda uma questão de responsabilidade. Quem responde quando um sistema comete um erro? O desenvolvedor? A empresa? O próprio sistema? Como exigir prestação de contas de uma máquina que, tecnicamente, não possui intenção ou culpa? Para resolver isso, especialistas propõem modelos de “IA auditável”, em que todas as decisões possam ser rastreadas e explicadas — algo essencial quando vidas estão em jogo. Essas preocupações se intensificam quando falamos sobre autonomia das máquinas. Imagine um drone militar com capacidade de identificar e atacar alvos por conta própria. Ou um sistema de IA que decide quem deve receber um transplante de órgão. Em que momento uma máquina cruza a linha entre ferramenta e agente moral? A possibilidade da chamada “superinteligência” — IAs que ultrapassem nossa capacidade de controle — não é apenas ficção científica. É um alerta ético sobre os limites que não podemos ignorar. Mas nem tudo são riscos. A ética também nos mostra caminhos de esperança. Ela nos convida a usar a IA para promover a justiça, corrigir desigualdades, garantir acessibilidade, diagnosticar doenças com mais precisão e ampliar o acesso ao conhecimento. O desafio é garantir que esses benefícios sejam distribuídos de forma justa, sem deixar comunidades vulneráveis de fora. E aqui entra o papel das humanidades. Filósofos, sociólogos, juristas e educadores precisam estar envolvidos no desenvolvimento da IA. Não basta deixar essas decisões nas mãos de engenheiros e programadores. É preciso construir pontes entre técnica e reflexão, entre inovação e valores. A ética não é um freio para o progresso. Ela é o volante. Sem ela, corremos o risco de acelerar rumo ao desconhecido sem saber para onde vamos — ou quem deixamos para trás. Com ela, podemos guiar a IA de forma mais consciente, mais justa e mais humana. Este artigo não busca oferecer respostas definitivas, mas levantar perguntas urgentes: que tipo de mundo queremos construir com a ajuda das máquinas? Que valores queremos codificar em nossos algoritmos? E, acima de tudo, como garantir que, ao criarmos máquinas inteligentes, não percamos a nossa própria inteligência moral? A ética na IA não é um luxo. É uma necessidade. E quanto mais cedo compreendermos isso, maiores serão as chances de usarmos essa poderosa tecnologia para o bem comum. *Rafael Toscano é escritor, pesquisador e professor na CESAR School (PE) e engenheiro na Companhia Brasileira de Trens Urbanos (DF). Atualmente, ocupa o cargo de Secretário Executivo de Ciência, Tecnologia e Negócios na Secretaria de Transformação Digital, Ciência e Tecnologia (SECTI) na Cidade do Recife e é Diretor de Admnistração, Finanças e Planejamento do Alumni CIn UFPE. Formado em Engenharia da Computação pela UFPE, é Mestre e Doutor pela Universidade de Pernambuco, MBA em Gestão de Negócios pela Fundação Dom Cabral (MG) e MBA em Economia pela USP (SP). É especialista em Direito Tributário pela Universidade de Ipatinga (MG) e Gerente de Projetos certificado pelo PMI desde 2014. **Esse Texto integra o livro IA Transformação das Humanidades LEIA TAMBÉM Criatividade Algorítmica: quando a máquina cria com a gente Filosofia e IA: A Mente por Trás da Máquina

Ética e Responsabilidade: IA com Consciência Social Read More »

openai chatgpt 5cvw.960

Inteligência Artificial Generativa: um divisor de águas em 2023?

*Por Rafael Toscano O ano de 2022 foi ímpar para a IA. Muita tecnologia foi desenvolvida, e, mais do que isso, muitas ferramentas foram disponibilizadas e popularizadas, com um grande destaque para a ChatGPT. A IA generativa tornou-se um tópico quente para entusiastas, técnicos, investidores, empresas privadas, formuladores de políticas públicas e para a sociedade em geral. Como o nome sugere, a IA generativa produz ou gera texto, imagens, música, fala/discurso, código fonte para computadores e até mesmo vídeos. A IA generativa não é exatamente um conceito novo, mas as técnicas de aprendizado de máquina por trás da IA generativa evoluíram exponencialmente na última década por conta de todo o avanço em processamento de dados. Em contraponto à atual desaceleração do mercado e demissões no setor de tecnologia, as empresas que oferecem produtos de IA generativa continuam recebendo interesse dos investidores. Estima-se que o mercado da IA generativa pode gerar trilhões de dólares em valor econômico nos próximos anos. O fato é que mais de 150 startups significativa surgiram em todo o globo e já estão ocupando espaço nesse oceano azul. A IA generativa vai além das tarefas típicas de processamento de linguagem natural, como tradução de idiomas, resumo e geração de texto. Recentemente, no lançamento da IA ChatGPT, pode-se acompanhar um efeito viral que alcançou mais de um milhão de usuários em apenas cinco dias. Com base em uma nova era de cooperação entre homem e máquina, os entusiastas afirmam que a IA generativa ajudará o processo criativo de artistas e designers, pois as tarefas existentes serão facilitadas por sistemas de IA generativa, acelerando a concepção e, essencialmente, a fase de criação. Entretanto, muito embora a IA generativa deixe as pessoas empolgadas com essa nova onda de criatividade, há preocupações sobre a aplicação e o impacto desses modelos na sociedade. Artistas, por exemplo, temem que a internet seja inundada com obras de arte indistinguíveis das suas, simplesmente dizendo ao sistema para reproduzir uma obra de arte em seu estilo (que até então poderia ser considerado único). Nesse sentido, reverbera a preocupação de que parte da força de trabalho criativa, incluindo artistas do entretenimento, videogames, publicidade, etc, possam perder suas funções por causa de modelos generativos de IA. Embora a IA generativa seja um divisor de águas em várias áreas e tarefas, há uma forte necessidade de controlar a difusão desses modelos, amortecendo seus impactos na sociedade e na economia. A discussão emerge, por um lado, da adoção centralizada e controlada com limites éticos firmes, versus inovação mais rápida e distribuição descentralizada. Já dizia o Tio Ben do Homem-Aranha: “Com grandes poderes vêm grandes responsabilidades”. Rafael Toscano é gestor financeiro, Engenheiro da Computação e Especialista em Direito Tributário, Gestão de Negócios. Gestor de Projetos Certificado, é Mestre em Engenharia da Computação e Doutorando em Engenharia com foco em Inteligência Artificial aplicada. LEIA TAMBÉM

Inteligência Artificial Generativa: um divisor de águas em 2023? Read More »

Inteligência artificial para diagnosticar a COVID-19 e prever risco de complicações

Um método que permite diagnosticar a COVID-19 em cerca de 20 minutos – com baixo custo e sem a necessidade de reagentes importados – foi descrito por pesquisadores brasileiros em artigo divulgado na plataforma medRxiv, ainda sem revisão por pares. O sistema usa algoritmos de inteligência artificial capazes de reconhecer em amostras de plasma sanguíneo de pacientes um padrão de moléculas característico da doença. Segundo os autores, também é possível identificar, entre os casos confirmados, os indivíduos com maior risco de desenvolver manifestações graves, como insuficiência respiratória. O projeto é apoiado pela FAPESP e envolve pesquisadores da Universidade Estadual de Campinas (Unicamp) e da Universidade de São Paulo (USP), além de colaboradores no Amazonas. “Nos testes feitos para validar a metodologia, conseguimos diferenciar as amostras positivas e negativas com um acerto de mais de 90%. Também fizemos a diferenciação entre casos graves e leves com acerto em torno de 82%. Agora, estamos iniciando o processo de certificação junto à Anvisa (Agência Nacional de Vigilância Sanitária)”, conta à Agência FAPESP o professor da Unicamp Rodrigo Ramos Catharino, coordenador da pesquisa. Segundo ele, o exame, quando em operação, poderia custar em torno de R$ 40 por amostra, cerca de metade do preço de custo do RT-PCR, método considerado padrão-ouro para diagnóstico da COVID-19. O trabalho vem sendo desenvolvido no Laboratório Innovare de Biomarcadores, durante o doutorado de Jeany Delafiori, e integra uma linha de pesquisa que combina técnicas de metabolômica e aprendizado de máquina para buscar marcadores capazes de auxiliar o diagnóstico de doenças como zika, dengue hemorrágica, fibrose cística, diabetes e outros distúrbios metabólicos. O grupo trabalha em parceria com o Laboratório de Inferência em Dados Complexos (Recod) do Instituto de Computação (IC) da Unicamp, coordenado pelo professor Anderson Rocha e conta com a participação de seu colaborador Luiz Claudio Navarro. “O projeto contou com a participação de 728 pacientes – sendo 369 com diagnóstico de COVID-19 confirmado clinicamente e por RT-PCR. As amostras de indivíduos não infectados foram usadas para comparação, como uma espécie de grupo controle. No caso de alguns pacientes que desenvolveram complicações e precisaram ser internados, foi coletada uma segunda amostra de sangue. De modo geral, entre os casos confirmados, havia indivíduos com sintomas leves e graves”, conta Delafiori. Todas as amostras foram analisadas em um equipamento conhecido como espectrômetro de massas, capaz de discriminar as substâncias presentes em fluidos corporais. Como explicam os pesquisadores, esse conjunto de moléculas encontrado no plasma sanguíneo retrata os diversos processos metabólicos ativos no organismo. “Nos concentramos nas moléculas de baixo peso molecular, como os aminoácidos, os pequenos peptídeos e os lipídeos. Elas surgem na parte final dos processos metabólicos e, portanto, estão mais diretamente ligadas aos sintomas que os pacientes estavam manifestando no momento da coleta”, explica Delafiori. Parte das amostras foi então usada pela equipe do IC-Unicamp para ensinar um método de inteligência artificial a reconhecer padrões de metabólitos encontrados nos casos positivos e nos negativos, bem como diferenciar os padrões dos casos leves e graves. A outra parte foi usada em um teste cego, cujo objetivo foi avaliar o acerto final da análise feita pelo sistema. Segundo os dados do artigo, o método alcançou 97,6% de especificidade e 83,8% de sensibilidade para o diagnóstico da doença no teste cego. Já em relação à análise de risco para manifestação grave a especificidade foi de 76,2% e a sensibilidade foi de 87,2%. “Sensibilidade [também conhecido como sensitividade] é o parâmetro que indica o quão sensível o método é para detectar a presença ou ausência da COVID-19. Já especificidade tem a ver com a capacidade de diferenciar a COVID-19 de outras condições de saúde. Esses dois parâmetros, quando analisados em conjunto, determinam a taxa de acerto”, explica Delafiori. “Ainda estamos trabalhando para melhorar a taxa de acerto do exame, à medida que novas amostras de pacientes são coletadas por nossos colaboradores.” De acordo com Rocha, o algoritmo desenvolvido é capaz de incorporar conhecimento na medida em que analisa novas amostras, o que tende a se refletir em uma melhora na performance com o passar do tempo. “Se hoje ele tem uma taxa de acerto em torno de 90%, é provável que acerte ainda mais quando chegar a milhares de pacientes analisados”, afirma o pesquisador. A equipe do IC-Unicamp também criou um software para automatizar todo o processo de análise e gerar, no final, um relatório que informa para o médico se o paciente tem a COVID-19 e se apresenta risco de complicações. “Esses biomarcadores preditores de evolução da doença podem, por exemplo, ajudar o médico da assistência básica a decidir se o paciente que testar positivo pode ser mantido em isolamento domiciliar ou se deve ser transferido para um centro de maior complexidade”, comenta Rinaldo Focaccia Siciliano, médico assistente da Divisão de Moléstias Infecciosas e Parasitárias do Hospital das Clínicas (HC-FM-USP) e da Unidade de Controle de Infecção Hospitalar do Instituto do Coração (InCor), um dos coautores do artigo. Na avaliação de Siciliano, o método tem mostrado um bom desempenho para detectar tanto os casos leves, nos primeiros dias de sintomas, como também os mais avançados, de pacientes que já apresentam falta de ar na admissão ao hospital. “A vantagem de ter vários centros participando do projeto, com diferentes perfis, é a variabilidade das amostras. Isso permite que seja possível aplicar a metodologia em diferentes cenários, tanto ambulatorial quanto hospitalar”, diz. Outro avanço apontado pelo pesquisador é a possibilidade de diagnosticar precocemente a doença por meio de uma amostra de sangue, mais fácil de ser coletada do que a secreção nasal usada no teste de RT-PCR. “A coleta com swab [cotonete comprido inserido no fundo do nariz] requer equipe bem treinada e sala apropriada, pois há risco de dispersão de aerossóis contaminados com o vírus. E o teste sanguíneo atualmente disponível só é capaz de detectar anticorpos alguns dias depois do surgimento dos sintomas.” Modelo otimizado Enquanto a maioria dos testes laboratoriais analisa no sangue os níveis de algumas poucas substâncias, o sistema computacional desenvolvido pela equipe da Unicamp é capaz

Inteligência artificial para diagnosticar a COVID-19 e prever risco de complicações Read More »

Sistema usa inteligência artificial para prever ocorrências de crimes em áreas urbanas

Na região central da cidade de São Paulo há 1.522 esquinas com maior probabilidade de ocorrência de assalto a transeuntes, além de outros pontos com alto risco de furtos e roubo de veículos ou de carga. Juntos, esses locais são responsáveis por quase metade dos registros desses tipos de crimes no centro da capital paulista. A identificação dessas regiões na cidade, que devem merecer maior atenção dos agentes de segurança pública, tem sido feita por meio de ferramentas baseadas em ciências de dados e inteligência artificial, desenvolvidas nos últimos anos por pesquisadores vinculados ao Centro de Ciências Matemáticas Aplicadas à Indústria (CeMEAI) – um dos Centros de Pesquisa, Inovação e Difusão (CEPIDs) financiados pela FAPESP. As ferramentas computacionais despertaram o interesse de órgãos e secretarias de segurança pública de cidades como São Carlos, no interior paulista, afirma Luis Gustavo Nonato, pesquisador responsável pelo projeto.“O objetivo é que essas ferramentas possam ajudar esses órgãos a predizer regiões das cidades com maior probabilidade de ocorrência de crimes, visando a implementação de ações preventivas”, diz Nonato. Uma das linhas de pesquisa do CeMEAI, sediado no Instituto de Ciências Matemáticas e de Computação da Universidade de São Paulo (ICMC-USP), campus de São Carlos, é a aplicação de técnicas de ciência de dados para compreender o impacto de fatores como a infraestrutura urbana, o fluxo de pessoas e até mesmo o clima em problemas como, por exemplo, o da criminalidade. Para realizar os estudos, são empregadas ferramentas da área de computação, matemática e estatística, mesclando técnicas de ciência de dados e de inteligência artificial, em especial, de aprendizado de máquina. Os resultados dessas análises complexas são apresentados por meio de plataformas de visualização computacional, de modo a facilitar a interação dos gestores públicos com os dados disponibilizados. “A ideia é ajudar os gestores a entender como esses fatores se correlacionam com ocorrências criminais, por exemplo, para auxiliar na criação de políticas públicas de baixo custo e com grande impacto econômico e social nas cidades”, diz Nonato. Criminalidade no entorno de escolas O projeto foi iniciado em 2015 por meio de uma colaboração com o Núcleo de Estudos da Violência (NEV), outro CEPID financiado pela FAPESP. No âmbito dessa parceria, os pesquisadores do CeMEAI puderam ter acesso a uma grande quantidade de dados sobres crimes na cidade de São Paulo reunidos pelo NEV e empregar ferramentas de ciência de dados e inteligência artificial para identificar padrões de criminalidade e suas relações com variáveis externas associadas à infraestrutura urbana. A primeira ferramenta desenvolvida por meio da parceria foi o CrimAnalyzer – uma plataforma que possibilita identificar padrões de criminalidade ao longo do tempo em regiões da cidade e, dessa forma, verificar quais são os mais prevalentes em termos quantitativos, por exemplo. Por meio da plataforma, os pesquisadores realizaram estudo para avaliar a relação entre a criminalidade e a infraestrutura no entorno de escolas públicas na cidade de São Paulo. Reuniram dados de indicadores socioeconômicos, informações sobre a infraestrutura urbana, como pontos de ônibus e bares, além do fluxo de pessoas e histórico de crimes, como assalto a pedestres, de estabelecimentos comerciais e roubo de carros, durante o dia, à tarde, à noite e de madrugada, em um raio de 200 metros no entorno de 6 mil escolas públicas em São Paulo. Constataram que as escolas localizadas em regiões da cidade com melhores indicadores socioeconômicos e cercadas por um grande número de pontos de ônibus tendem a apresentar um maior número de crimes, principalmente roubo de carros e assalto a transeuntes – este último concentrado no período da tarde. O intenso fluxo de pessoas devido ao grande número de pontos de ônibus pode ser o fator a explicar o volume de assaltos de pedestres, diz Nonato. “Existe uma forte correlação entre pontos de ônibus e crimes no entorno dessas escolas”, afirma o pesquisador. “Isso mostra a efetividade dessa metodologia de ciências de dados para revelar padrões”, avalia Nonato. Resultado de uma colaboração, além do NEV-USP, com a Escola de Matemática Aplicada da Fundação Getúlio Vargas (FGV), as universidades federais do Espírito Santo (UFES) e de Alagoas (UFAL) e a New York University, dos Estados Unidos, o projeto está sendo implementado em São Carlos por meio de convênio da Secretaria de Segurança Pública da Prefeitura Municipal com o ICMC/USP para utilizar as ferramentas. “A prefeitura de São Carlos tem viabilizado o acesso a diversos dados, possibilitando um grande avanço no projeto”, diz Nonato. Séries temporais Uma das limitações do CrimAnalyzer é que os dados dos crimes estavam agregados por setor censitário – unidade territorial estabelecida para fins de controle cadastral, formada por área contínua e situada em um único quadro urbano ou rural. Essa forma de apresentação de dados prejudicava a captura de padrões de criminalidade. Em razão dos resultados alcançados com o projeto, os pesquisadores começaram a ter acesso a dados georreferenciados sobre crimes na cidade de São Paulo e desenvolveram uma nova ferramenta, batizada de Mirante. “O acesso aos dados georreferenciados fez uma diferença enorme no poder de análise e também na forma como passamos a apresentar e obter os padrões de criminalidade”, afirma Nonato. Por meio de tratamentos estatísticos, a plataforma faz o geoprocessamento em mapas de rua e, dessa forma, permite avaliar mudanças no padrão de criminalidade em locais da cidade ao longo do tempo. Ao analisar uma esquina em São Paulo que em 2010 não registrava roubos de veículos e que, a partir de 2017, começou a registrar, os pesquisadores observaram que um dos fatores que contribuíram para essa mudança foi a alteração no lado da via liberada para estacionamento.. Antes de 2010 era proibido estacionar no lado da via de mão dupla que dá acesso a uma avenida principal com ligação a uma via marginal. Com a liberação para estacionamento, aumentou o roubo de carros na região. “Isso pode ter facilitado aos criminosos roubar carros e sair rapidamente para a marginal, enquanto anteriormente eles teriam que dar uma volta dentro do bairro para poder ter acesso à marginal”, explica Nonato. Padrões de criminalidade

Sistema usa inteligência artificial para prever ocorrências de crimes em áreas urbanas Read More »

Dalla Nora: "Inteligência artificial pode silenciar robôs e sites que criam Fake News"

Paulo Dalla Nora Macedo, co-fundador e vice-presidente do Instituto Política Viva, foi um dos entrevistados na matéria da semana passada sobre Fake News. Publicamos hoje a conversa com ele sobre as alternativas para o País superar esse desafio que tumultuou o debate público no Brasil. O Política Viva nasceu em 2013 para promover o debate político crítico e construtivo que recupere os ideais republicanos com integridade e ponderação. . Além de acirrar a polarização política, que outros prejuízos as Fake News oferecem a sociedade brasileira na sua opinião? O maior mal das Fake News é criar uma agenda de prioridades falsas, distorcer quais os temas que de fato preocupam a sociedade ou distorcer como ela pensaria sobre os temas. Como o congresso e o executivo trabalham muito de acordo com as prioridades da população e das suas posições, a máquina de fake news quer sequestrar a agenda do Pais. . Quais as principais descobertas das pesquisas acessadas ou elaboradas pelo Política Viva sobre as Fake News?  O Política Viva tem como pilar defender a política e lutar contra as fakes news. Temos vários estudos sobre o assunto:as notícias falsas são 70% mais compartilhadas que as verdadeiras, mais de 60% do tráfego nas redes sobre política são gerados por robôs, fora esses robôs existem em torno de 5 mil "engajados" profissionais que criam as narrativas, ou seja existe muito pouca espontaneidade. O instituto Reuters divulgou em pesquisa recente que 84% dos brasileiros não confiam no que lêem nas redes, no entanto são essas redes que estão sequestrando o debate. . O combate às Fake News no Brasil tem alcançado algum resultado? Muito tímido ainda. O combate só vai começar a ser efetivo quando a ser efetivo quando as plataformas forem pressionadas economicamente a agir contra os robôs e páginas que eles sabem que disseminam fake news. A Coca Cola e a Unilever recentemente anunciaram que vão deixar de anunciar no Facebook e twitter. Esse é o passo importante. . Quais os caminhos para se evitar a disseminação ou o impacto tão negativo das Fake News na sociedade? Há alguma contribuição tecnológica para isso? Sim, não temos dúvida que com inteligência artificial é possível silenciar esses robôs e os sites que existem para criar fake news, é muito fácil identificar isso e barrar. O problema é que eles são geradores de tráfego e isso e receita. As pessoas têm que entender que um blog postar que Coronavírus não existe, que você pode ir para rua, não é liberdade de expressão. Liberdade de expressão não contempla crimes contra a saúde pública por exemplo, ou calúnia e difamação. Ou postar como absurdos se fossem verdades. As pessoas confundem opiniões com fatos, todo mundo tem direito a sua opinião, mas ao seu fato não. Blogs e canais que a existem para defender que a terra é plana serve para quê além de semear a dúvida em verdades cientificas? Por que as plataformas deixam no ar? Porque geram milhões com os seus vídeos bizarros. Se não fizemos nada vamos chegar ao ponto de quê não existe mais nenhuma verdade básica, só pessoas perturbadas, ou os que querem explicar a sua própria inadequação, gostariam de viver em um mundo assim.

Dalla Nora: "Inteligência artificial pode silenciar robôs e sites que criam Fake News" Read More »

Neurotech e Cesar School lançam curso de Machine Learning

Data Science e Machine Learning são dois termos abordados em todos os âmbitos de desenvolvimento e evolução de soluções. Pensando na qualificação do profissional que trabalham na área, a Cesar School lança o curso "Machine Learning Aplicado à Análise de Dados", em parceria com a Neurotech, empresa surgida no Porto Digital e pioneira na aplicação prática de inteligência artificial nos mercados de crédito e seguro brasileiros. “Acreditamos que a Inteligência Artificial estará por todas as partes e precisamos dar nossa contribuição formando gente boa nesta área. Com mais de 20 anos de experiência prática na extração de conhecimento a partir dos dados, junto com a Cesar School trazemos esse excelente curso prático”, afirma Rodrigo Cunha, Head do Neurolake na Neurotech, um dos professores do curso. Mais informações sobre o cursos podem ser obtidas no link: https://www.cesar.school/machine-learning-aplicado-a-analise-de-dados/

Neurotech e Cesar School lançam curso de Machine Learning Read More »