Categorias
Não categorizado

8 vezes em que a tecnologia virou roteiro de cinema

Você, muitas vezes, deve ter se deparado com cenas futuristas no cinema com carros voadores e robôs que se tornam rivais dos humanos. Pois é, a indústria cinematográfica utiliza muito conhecimento tecnológico, matemático e de programação para ativar a imaginação de grandes diretores. A Ciência de Dados na vida real é fascinante e se torna ainda mais incrível quando vista pela sétima arte. 

A nossa playlist, desta vez, traz filmes de ficção, documentários e biografias que tratam como a tecnologia foi adequada para a grande tela. Confira estas oito dicas:

 

1. O Jogo da Imitação

 

O Jogo da Imitação, baseado na história real de Alan Turing, narra como um matemático, sem patente militar ou cargo político, conseguiu decifrar os códigos de guerra nazistas e contribuir para o final da 2ª Guerra Mundial.

Com uma equipe de decodificadores trabalhando em uma instalação militar secreta no projeto Ultra, Turing não tinha motivações humanitárias ou patrióticas, mas sim, matemáticas.

Arrogante, tirânico, introvertido e de difícil convívio, ainda mais sob a pressão extrema de sua missão, Alan estava obstinado em decifrar o Enigma. Foi quando teve a ideia de criar uma máquina para decifrar códigos secretos. Se a criação deu certo ou não, você vai precisar assistir o filme para saber.

Inspirado no livro “Alan Turing: The Enigma”, de Andrew Hodges, o filme é um reconhecimento ao pai da computação moderna, interpretado por Benedict Cumberbatch, o Sherlock Holmes da série BBC e Dr. Estranho, Marvel.

 

2. Her

Her é a história de Theodore (Joaquin Phoenix, o coringa), um escritor de cartas românticas divorciado. Ele adquire um novo sistema operacional, Samantha (Scarlett Johansson), como o sistema se autonomeia, e o configura com voz feminina. Os dois desenvolvem uma relação pessoal que evolui para um relacionamento amoroso marcado por questionamentos presentes em qualquer namoro e por questões particulares, como a dúvida se Samantha está desenvolvendo a capacidade de pensamento próprio ou se seu sentimento por Theodore é um comportamento programado.

 

3. Estrelas Além do Tempo

A obra lança aos olhos do grande público as histórias de Katherine Johnson (Taraji P. Henson), Dorothy Vaughan (Octavia Spencer) e Mary Jackson (Janelle Monáe), três matemáticas negras da Nasa que trabalharam para tornar possível a viagem espacial de John Glenn ao redor da Terra.

O filme é um dos esforços para tentar corrigir a trajetória da História que continuava falando das conquistas espaciais sem citar os nomes dessas mulheres pioneiras.

Katherine realizou o cálculo da trajetória do voo do Apolo 11, o foguete que levou os homens à Lua pela primeira vez. Dorothy, ao descobrir que a Nasa adquirira o computador IBM, decide aprender e ensinar suas companheiras de departamento a programar. Mary foi a primeira mulher engenheira da Nasa. Essas conquistas se tornaram ainda mais desafiadoras diante da discriminação racial e do machismo presentes em suas vidas.

 

4. O Círculo

Esse filme apresenta a trajetória de Mae (Emma Watson) dentro da Círculo, uma poderosa empresa do ramo de tecnologia. O que parece o trabalho dos sonhos no início se torna um conflito quando a protagonista entende que as tecnologias da empresa, naturalizadas no cotidiano de milhões de pessoas, são um meio para vigiar os usuários e monopolizar suas informações pessoais. É recriada na ficção a realidade: a perda de nossa privacidade quando nos inserimos nos ambientes virtuais. Você lembra do seu histórico de navegação do dia 14 do mês passado? Algumas das maiores companhias do mundo têm tudo isso muito bem armazenado.

 

5. Vice – The Future of Work

Lançado em 2019, Vice busca delinear um quadro, diante do presente concretizado da inteligência artificial e das perspectivas para seu desenvolvimento, de qual será a configuração do mercado de trabalho no futuro onde máquinas se apresentarão como uma alternativa mais eficiente em diversas atividades laborais. 

Quais vantagens no campo de trabalho a humanidade alcançará? Em quais termos as leis serão redigidas para regularizar uma nova realidade empregatícia? Para quais atividades serão realocados os grupos substituídos por máquinas? Em Vice, eles estão tendo essa conversa.

 

6. The Age of A.I.

Apresentada pelo ator Robert Downey Junior, a série mostra o trabalho de alguns dos pesquisadores mais influentes no desenvolvimento do potencial da inteligência artificial. Em nove episódios, vamos acompanhar a quais níveis a IA já chegou e o que se espera que sejamos capazes de produzir com ela no futuro, como o aperfeiçoamento da computação afetiva, onde máquinas aprendem a sentir e reagir de uma forma cada vez mais humana.

 

7. O Homem que Mudou o Jogo

No filme, baseado em fatos reais, vamos acompanhar a análise de dados sendo usada como estratégia pela equipe de beisebol Oakland Athletics. Diante da falta de dinheiro do time, o treinador Billy Beane (Brad Pitt) se junta ao analista Peter Brand (Jonah Hill), que sugere uma nova metodologia na escolha dos atletas; nela, o foco deixa de ser a contratação de grandes estrelas.

Peter, sabendo que quase tudo deixa seu rastro de dados, analisa as estatísticas sobre atletas medianos e passa a selecionar aqueles que são talentosos em pontos específicos do jogo. Essa estratégia eleva a posição da Oakland Athletics dentro da Liga Americana e passa a ser adotada por outras equipes.

 

8. The Great Hack

 

A obra mostra como o uso do Big Data, associado a técnicas de marketing, influenciou a eleição presidencial americana de 2016. A companhia Cambridge Analytica, a partir dos dados que o Facebook forneceu de seus usuários, identificou perfis eleitorais e conseguiu produzir um conteúdo mais personalizado para o público que queria atingir.

The great Hack vem para nos lembrar que os nossos dados estão sendo usados, e nós não sabemos por quem e com quais objetivos.

 

Gostou dessas dicas? Qual te interessou mais?

 

Categorias
trabalho Vagas Vagas Encerradas

Vagas para o Insight Lab: modalidade bolsa e CLT

O laboratório Insight está abrindo novas oportunidades para quem deseja contribuir com trabalhos desafiadores e de impacto social em um ambiente de aprendizado contínuo. Quer fazer parte deste time? Fique atento, as bolsas são para alunos de graduação da UFC e para candidatos celetistas.

 

Vagas ofertadas
1. Bolsista em Engenharia de Software   (Prorrogado até 30 de setembro)

Atualizado em 28.09.2020

Responsável por implementar e executar testes automatizados em aplicações mobile e web; apoiar na especificação de casos de testes; criar e conduzir estratégias de testes de produtos e gerar documentação dos casos de testes.

 

Conhecimentos desejáveis em: documentação de requisitos funcionais e não funcionais;

documentação em modelo de histórias de usuário; documentação e diagramas de arquitetura de software e tecnologias; teste de software; testes de API; UML; banco de dados; controle de versão com Git e desenvolvimento em ambientes e times ágeis.

 

Você irá se destacar se: tiver conhecimento em Selenium e JMeter; conhecimento em linguagens de programação (Python, Go, Node, Java, Scala…); experiência com JVM;

Linux.

 

Carga Horária

20h semanais

 

Modalidade de Contratação

Bolsa de graduação

 

Envio de currículo

Até 09 de setembro

 

Candidatura 

Envie seu currículo para o email jobs@insightlab.ufc.br com o assunto “[JOB19] Bolsista em Eng. de Software”.

Documento completo desta vaga, aqui.

 

2. Analista SRE (Site Reliability Engineering

Responsável por atuar no desenvolvimento de uma plataforma integrada, de alta disponibilidade, distribuída e resiliente da segurança pública; atuar no monitoramento de aplicações em clouds públicas e privadas criar e manter ambientes utilizando Infrastructure as Code; contribuir para a tomada de decisões de arquitetura e tecnologia e compartilhar boas práticas DevOPS com o time de desenvolvimento.

 

Conhecimentos desejáveis em: banco de dados; controle de versão com Git; experiência em Linux; experiência em Docker e desenvolvimento em ambientes e times ágeis.

 

Você irá se destacar se tiver: conhecimento em ferramentas de Big Data (Kafka, Spark, Flink, Hadoop); conhecimento em conceitos e ferramentas de Ciência de Dados e Machine Learning; conhecimento em ferramentas de automação (Ansible, Chef, Puppet); cultura DevOps (Kubernetes, OKD, OpenShift, CI & CD, Monitoração, Observabilidade); conhecimento em Elastic Stack, Grafana, InfluxData Stack, Zabbix, linguagens de programação (Python, Go, Node, Java, Scala); experiência com JVM e conhecimento em Cloud (AWS, Azure, Google Cloud Platform).

 

Carga Horária

40h semanais

 

Modalidade de Contratação

CLT (Salário + Vale alimentação)

 

Envio de currículo 

09 de setembro

 

Candidatura

Envie seu currículo para o email jobs@insightlab.ufc.br com o assunto “[JOB20] Analista SRE“. 

Documento completo desta vaga, aqui.

 

3. Desenvolvedor iOS

Você será responsável por atuar no desenvolvimento de aplicativos relacionados à segurança pública e atuar no processo de deploy e gestão do aplicativo na loja.

 

Conhecimentos desejáveis em: POO; Domínio do Swift; View Code; UIKit e ter familiaridade com UIStackView; Core Data; User Notifications; MapKit; Aplicativo baseado em módulos; Cocoa pods; Requests nativo (sem framework) e controle de versão com Git.

 

Você irá se destacar se tiver: conhecimento em regex; Firebase; Fastlane; SwiftLinter; CloudKit; RXSwift; Combine; experiência com publicação na AppStore/TestFlight e conhecimento básico de Objective C.

 

Carga Horária

40h semanais

 

Modalidade de Contratação

CLT (Salário + Vale alimentação)

 

Envio de currículo 

09 de setembro

 

Candidatura

Envie seu currículo para o email jobs@insightlab.ufc.br com o assunto “[JOB21] Desenvolvedor iOS”.

Documento completo desta vaga, aqui.

————

Boa sorte!

Acompanhe mais novidades nas nossas redes sociais.

 

Categorias
Ciência de Dados Portifólio

6 etapas para a construção do seu portfólio de Data Science

Você já possui ou está iniciando um portfólio de projetos em Data Science? Com um portfólio, o profissional se mostra presente e atuante na comunidade global de cientista de dados e também faz uso de mais uma ferramenta que mostra ao mercado suas habilidades na área.

Muitas vezes na construção do portfólio, surgem dúvidas sobre como organizar o processo de desenvolvimento dos projetos. Essas dúvidas são bem vindas, mostram o seu planejamento e a busca para tornar seu trabalho mais consistente e coerente, um trabalho com sentido e direção. 

Para te ajudar, hoje vamos apresentar e esclarecer 6 etapas para fortalecer seu portfólio de Ciência de Dados

Antes do tópico 1, precisamos relembrar de uma característica que todo cientista de dados deve ter: paixão pela área! Sim, a Ciência de Dados é uma área fascinante, com estudos de impacto inquestionável nos mais diferentes âmbitos e com profissionais muito valorizados, mas, sendo a conjunção entre Matemática, Estatística e Computação, é uma ciência complexa e que exige dedicação e estudo constantes. Se o amor pela área você já tem, pode seguir a leitura.

 

1. Definição do Problema

O passo inicial do seu projeto deve ser a  boa definição do problema a ser resolvido e, assim, traçar a melhor estratégia para solucioná-lo. Você deve esquadrinhar o problema selecionado para definir as técnicas estatísticas e de machine learning que serão empregadas, sempre guiando seu processo pela questão: qual o valor e impacto do que eu estou fazendo?

A escolha do conjunto de dados a ser usado é também um ponto da fase de definição do problema. No Kaggle, por exemplo, existem diversos projetos e datasets que podem ser utilizados como base para seu projeto. Veja a lista de sites para baixar dados gratuitamente que nós criamos:

 

Entretanto, na indústria, muitas vezes um dos grandes desafios do cientista de dados é exatamente converter um problema de negócios em um problema de ciência de dados. Nesse sentido, algo interessante a se fazer é, em vez de utilizar algum problema ou dataset já existentes, definir seu próprio problema e, consequentemente, construir seu próprio banco de dados. Apesar de gastar algum tempo coletando os dados, essa etapa te ajudará a pensar na melhor maneira de coletar e reunir informações, e você estará aprendendo uma parte que nem sempre é ensinada na escola.

Claro que este último ponto não é obrigatório, mas é interessante realizá-lo porque te ajudará a explicar melhor aos outros seu pensamento estratégico ao enfrentar um problema.

 

2. Limpeza dos Dados 

O segundo passo deve ser a limpeza dos dados. Essa é uma parte que toma um tempo substancial do processo. Nessa etapa, datasets são unidos, são detectadas anomalias (por exemplo, “1”, “2”, “sol”), valores faltantes são identificados e imputados. A limpeza dos dados remove os principais erros e inconsistências no conjunto de dados e garante que os dados estejam prontos para análise.

 

3. Análise Exploratória dos Dados

Com a limpeza dos dados feita, o próximo passo é analisar. Essa é uma etapa extremamente importante porque lhe permite entender seus dados e fazer descobertas. Frequentemente, uma boa análise descritiva permite formular hipóteses e questões relevantes, utilizando medidas estatísticas (média, variância, correlação) e visualização (histogramas, box plots, gráficos de dispersão). Nesta parte, você:

(a) saberá a natureza de cada variável (qualitativa ou quantitativa);

(b) saberá qual a distribuição de cada uma;

(c) descobrirá se existem e quem são os outliers;

(d) identificará a relação entre as variáveis.

Muito mais pode ser feito durante este momento do processo. O essencial é mostrar sua capacidade em buscar e identificar nos dados coisas que outras pessoas podem não ter percebido, e tornar os modelos ajustados posteriormente ainda melhores.

4. Visualização Interativa dos Dados

Use gráficos apropriados para cada tipo de variável. Tente apresentar gráficos que capturem os olhos, mas que sejam simples e compreensíveis.  Visualizações interativas incluem ferramentas como dashboards, que são uma maneira rápida e fácil de interagir com os dados.  Uma boa visualização permite comunicar de forma clara o que há nos dados e o leva a ter insights adicionais.

Neste ponto você irá literalmente desenhar o que há nos dados.

 

5. Machine Learning

A aplicação de modelos estatísticos e machine learning é um ponto imprescindível na criação do seu portfólio. Inicialmente, não precisa ser algo muito complexo. Você pode escolher um modelo mais simples, como regressão linear e logística que são mais fáceis de ajustar e interpretar. Eles podem servir como uma base para avaliar seus próximos modelos.

Em seguida, crie um modelo baseado em machine learning, descreva como foi a escolha, compare com aqueles mais simples, ajustados anteriormente, e veja quais os problemas com seu último ajuste. Construa um segundo modelo de machine learning. Explique, nesta etapa, por que ele é melhor do que o anterior. O primeiro  não estava bem ajustado, você precisava de um modelo menos complexo ou necessitava adicionar algo, como regularização. 

Utilize métodos para seleção de modelos, avalie, por exemplo, a acurácia e a capacidade de previsão do seu ajuste. Repita a última etapa até se sentir confortável com os resultados obtidos. No final, seu portfólio terá além de um bom modelo, uma linha do tempo lógica explicando o processo de pensamento e como chegou ao modelo final.

6. Comunicação

A parte final do seu projeto, e que faz toda a diferença, é a comunicação. Você pode construir ótimos modelos, mas se você não for capaz de explicá-los de forma clara e objetiva para os demais, boa parte do seu trabalho pode ser perdida. Com os passos anteriores feitos, você contará uma história.

Great data scientists are great storytellers”.

Em primeiro lugar, saiba quem é o seu público, explique o que fez de forma clara e em termos simples. Escreva sobre o objetivo do projeto, apresente as principais análises exploratórias, elucide os resultados e impactos da modelagem, e diga o porquê seu projeto tem valor. Você não precisa incluir seu código, mas indiscutivelmente vincule-o ao GitHub.

 

Aprofunde-se

Essas foram as etapas selecionadas para te ajudar no direcionamento e construção do seu portfólio. E para que você se sinta ainda mais inspirado, conheça estes dois excelentes projetos em Ciência de Dados:

  1. Os projetos criados pelos estudantes de Stanford na turma de Machine Learning. Aqui, você encontra projetos de caráter acadêmico, mas com excelentes explicações sobre as soluções aplicadas ao problemas de Machine Learning
  2. Classificador de Lego usando TensorFlow no Raspberry Pi. Aqui, o autor do projeto explica detalhadamente o processo de criação do seu classificador de lego.

 

Aproveita a sessão de comentários e conte como tem sido seu processo de desenvolvimento de projetos para o portfólio.

Até mais!

 

 

 

Categorias
Ciência de Dados Programação trabalho Vagas Vagas Encerradas

Trabalhe como Desenvolvedor Full Stack no Insight Lab

Olá! Iniciamos hoje o processo de seleção para a vaga de Desenvolvedor Full Stack Pleno, que será responsável por atuar no desenvolvimento de aplicações web e desenvolver soluções inovadoras.

 

Competências obrigatórias: Python,  Docker, Shell Script, Jupyter Notebook, PostgreSQL, Conda, Git,  Javascript, HTML, CSS, Linux e Inglês.

Competências desejáveis: Kubernetes, Data Lake, Big Data, Django, Scala, Java, Spring Boot, MongoDB, Redis, Play Framework e Lagom Framework.

 

Carga Horária 

40 horas semanais.

 

Modalidade de contratação

CLT 

 

Local de exercício das atividades

O candidato atuará em nossa sede em Fortaleza-CE. No entanto, pela necessidade de distanciamento social imposta pela pandemia de Covid-19, durante o período inicial o candidato desenvolverá suas atividades remotamente.

 

Etapas da seleção

– Envio das respostas do desafio e preenchimento do formulário de inscrição: 14/08 a 28/08

– Entrevistas: 01/09 a 04/09

– Divulgação do Resultado: 07/09

 

Desafio e Formulário

Deseja preencher esta vaga? Então, solucione o desafio e depois acesse o formulário para registrar seus dados e enviar seu currículo. 

 

Clique aqui para acessar o documento com mais especificações e esclarecimentos sobre a vaga de Desenvolvedor Full Stack.

Boa sorte e continue acompanhando o Insight Lab para receber todas as nossas novas publicações.

 

Categorias
Cursos Programação

Aprenda a construir aplicações escaláveis com o nosso novo curso

Hoje, apresentamos o nosso curso de “Aplicações escaláveis na prática”, disponível em nosso canal no YouTube. O curso é ministrado por Felipe Marcel, desenvolvedor full-stack do Insight Lab com experiência em desenvolvimento de aplicações usando as tecnologias Docker, Kubernetes, Scala, Play, Akka, Akka Stream, arquitetura de micro-serviços com Lagom Framework e MongoDB.

Na primeira parte deste curso você aprenderá a preparar a infraestrutura para construção de aplicações escaláveis. Os tópicos “Overview da aplicação SisBus” e “Docker” já estão no ar e, a partir do dia 06 de agosto, você também poderá acessar os itens “Docker-compose” e “Kubernetes”.

Como continuação desta formação, estamos produzindo o “Módulo de Desenvolvimento”, que também estará disponível em nosso canal no YouTube.

O curso segue a seguinte estrutura:

Módulo de Infraestrutura

1. Overview da aplicação SisBus (Disponível)

Apresentação 

Introdução 

Objetivos  

Solução – Amostra 

Solução – Infra Persistência 

Solução – Infra Backend 

Solução – Infra Frontend 

Solução – Infra Web Server 

Solução – Arquitetura 

Solução – Estrutura e tecnologias 

GTFS/Fluxo de Carga 

Próximos Passos

 

2. Docker (Disponível) 

Apresentação

Introdução 

Persistência – Mongo Dockerfile 

Persistência – Mongo Run 

Persistência – Data-seed Dockerfile 

Persistência – Data-seed Run 

Backend – nodejs-api 

Frontend – webapp 

Web server – proxy 

Backend II – Serviço lagom-api 

 

3. Docker Compose (Disponível em 06/08) 

Introdução 

Persistência – Mongo 

Persistência – Data-seed 

Backend – nodejs-api 

Frontend – webapp 

Web server – proxy I 

Web server – proxy II 

Backend II – Serviço lagom-api 

 

4. Kubernetes (Disponível em 06/08) 

Introdução: Conceitos 

Introdução: Minikube 

Persistência: Conceitos e comandos 

Persistência: Mongo

Backend I

Frontend 

Proxy 

Backend II 

 

Módulo de Desenvolvimento (em produção)

 

Para acompanhar o curso recomendamos que você tenha conhecimentos básicos em Docker e Kubernetes. Caso ainda não esteja familiarizado com essas ferramentas, indicamos:

Curso de Introdução ao Kubernetes (disponível em nosso canal do YouTube)

Curso de Introdução ao Docker (disponível em nosso canal do YouTube).

 

Bons estudos!

Categorias
Big Data Ceará Dados

SSPDS inicia banco de dados sobre pichações para mapear grupos criminosos no Ceará

A Secretaria da Segurança Pública e Defesa Social do Estado do Ceará (SSPDS/CE) iniciou o mapeamento da atuação de grupos criminosos do Ceará com a coleta de dados sobre pichações em edificações e muros utilizando inteligência artificial. Baseado na ciência de dados, o aplicativo Portal de Comando Avançado (PCA) agora oferece a função “pichação”, que reunirá dados para estabelecer padrões e comportamentos de integrantes desses grupos no Estado. Essa será mais uma ferramenta para subsidiar o trabalho das agências de inteligência policiais do Estado, reunindo um banco de dados com informações que serão integradas ao Big Data da Segurança Pública.

A primeira coleta da iniciativa aconteceu, nessa segunda-feira (13), durante implantação da 30ª base do Programa de Proteção Territorial e Gestão de Risco (Proteger), a unidade fica no município de Caucaia, na Região Metropolitana de Fortaleza.

Forma de expressão mais utilizada por integrantes de organizações criminosas, as pichações funcionam como instrumento para demarcar territórios, fazer ameaças a rivais e tentar demonstrar poder sobre uma área delimitada. A partir dessa premissa e baseado na análise de comportamentos coletivo e individualizado dos investigados, a SSPDS inicia um levantamento que irá produzir material de inteligência policial para apoiar a investigação criminal e o planejamento de patrulhamento ostensivo realizado pelas agências de segurança pública do Estado. Na prática, os próprios criminosos irão fornecer material para a Polícia alimentar o Big Data; aquilo que pode parecer demonstração de força será empregada para enfraquecer suas ações e fortalecer a segurança pública do Ceará.

 

 

Todas as informações serão alimentadas utilizando o Programa de Comando Avançado (PCA), aplicativo para celulares de uso exclusivo de profissionais da segurança pública do Ceará. Lembrando que pichar é crime conforme a Lei de Crimes Ambientais, com pena detenção que chega até um ano, e multa.

Para o secretário da SSPDS, André Costa, essa é mais uma inovação desenvolvida pela Secretaria na área de ciência policial e tecnologia aplicadas à segurança pública, que vai servir de exemplo para todo o País e América Latina. “Essa nova função que a gente começa a usar hoje (segunda-feira, dia 13) vai permitir que todo policial, a partir de agora, torne-se um agente de inteligência. Ele vai poder, através do smartphone, inserir uma fotografia, que será georreferenciada, ou seja, o próprio celular já vai dar a localização de onde ela (a pichação) está e também marcar o dia e hora dessa fotografia. Ele ainda vai incluir qual o grupo criminoso a que se refere à pichação. Quando esses criminosos picharem o local e os policiais fotografarem e enviarem esses dados, eles entram na base do nosso Big Data da Segurança Pública”, explica.

Os dados compilados na função “Pichação” no aplicativo PCA servirão para construir parâmetros de atuação dos grupos criminosos no Estado e para fomentar estratégias policiais de combate aos crimes nessas áreas. “Os policiais das áreas de investigação e inteligência vão poder ver os dados em um mapa e, assim, a gente vai ter um mapeamento atualizado com dados de determinado grupo criminoso em qual área, bairro ou comunidade ele se encontra. Isso é fundamental para as ações de inteligência tanto para as investigações como também para que o próprio patrulhamento possa organizar seus efetivos e entender quais áreas devem ser priorizadas”, destaca André Costa.

Junto à estratégia de inteligência para coletar dados para uso da segurança pública, os locais onde os policiais encontrarem pichações com marcas de grupos criminosos serão pintados. “Iremos cobrir essas pichações e tirar essas identidades visuais. Isso é muito negativo aqui, especialmente para a juventude, que vê esse exemplo envolvendo facções”, frisou André Costa.

Na palma da mão

O funcionamento da iniciativa é semelhante ao que já acontece com outras ferramentas tecnológicas criadas e desenvolvidas pela SSPDS, em laboratórios cearenses, por meio de pesquisadores financiados pelo Estado do Ceará e com a participação direta de profissionais do Sistema de Segurança do Ceará. O dispositivo utilizado para a função “Pichação” é o Programa de Comando Avançado (PCA), aplicativo para celular que integra bases civil e criminal da população do Estado, dados de veículos e motoristas, biometria e o reconhecimento facial. A nova função já está disponível para atualização nas lojas virtuais para usuários que utilizam os sistemas operacionais iOS e Android. O uso é exclusivo para servidores da segurança pública.

 

 

Como funciona?

Com um smartphone nas mãos e com o aplicativo PCA aberto, o policial vai iniciar o cadastro da pichação inserindo informações relevantes sobre as características encontradas no local. Primeiro, ele vai marcar a qual grupo criminoso pertence aquela pichação, em seguida, incluir uma descrição apontando onde a pichação foi encontrada, como por exemplo, “na parede de uma casa”, “na fachada de um estabelecimento comercial”. O próximo passo é acionar a câmera do celular para fazer o registro fotográfico das inscrições deixadas pelos criminosos. Por fim, o policial vai posicionar no mapa a localização exata da pichação utilizando o GPS do aparelho celular e concluir o cadastro na ferramenta. Em tempo real, as informações são transmitidas para o Big Data para acesso das agências de inteligência policial do Estado.

Tecnologia compartilhada

A função “Pichação” foi desenvolvida numa parceria entre a Secretaria da Segurança Pública e Defesa Social do Estado do Ceará (SSPDS/CE) e o Laboratório de Processamento de Imagem, Sinais e Computação Aplicada (Lapisco), vinculado ao Instituto Federal de Educação, Ciência e Tecnologia do Ceará (IFCE). A colaboração entre as instituições também propiciou a criação e uso do reconhecimento facial, outra ferramenta disponível ao policial que acessa o aplicativo PCA. Juntos, SSPDS e IFCE constroem soluções para aprimorar o uso da tecnologia aplicada à segurança pública a partir da análise de sinais (áudio, voz, imagem, vídeo).

Big Data da Segurança Pública

A criação do Big Data da Segurança Pública, batizado de “Odin”, é fruto da parceria entre a SSPDS e pesquisadores da Universidade Federal do Ceará (UFC). A ferramenta integra mais de 100 sistemas dos órgãos de Segurança Pública do Estado e de instituições parceiras em uma única plataforma. Ela permite a tomada de decisão baseada em dados, feita de forma automática e em tempo real, dando maior celeridade aos processos e economia de tempo. Além disso, o “Odin” facilita o processo de investigação e inteligência policial com o detalhamento de territórios e informações de caráter investigativo, contribuindo para a formulação de estratégias de combate à criminalidade.

 

Fonte: Governo do Estado do Ceará

 

 

Categorias
Data Science Dica de Leitura

“Data Science para Negócios”: um livro indispensável do início ao fim

Em qualquer organização atualmente, independente do tamanho, a Ciência de Dados tem se tornado um tema relevante. O grande volume de dados produzido todos os dias é a chave para, por exemplo, aprimorar campanhas de marketing e aumentar os lucros das empresas. Mas, para que a análise das informações seja eficiente, é preciso pensar nos modelos implementados pelos data scientists  na exploração dos dados e também buscar uma gestão eficiente desse grupo de profissionais.

 

Escrito pelos renomados cientistas de dados Foster Provost e Tom Fawcett, o livro “Data Science para Negócios”,  baseado em um curso de MBA ministrado por Provost nos últimos dez anos na Universidade de Nova York, destina-se especialmente para aqueles leitores aspirantes a cientistas de dados e para os gerentes desses cientistas. Além de  um guia para aprender a melhorar a comunicação entre eles, o volume oferece uma diretriz completa sobre como participar inteligentemente em projetos dentro do ambiente comercial. Ao ler essa publicação, adquirimos uma visão mais completa do valor dos dados desde o ponto de vista de um negócio.

 

O livro aborda de uma forma menos técnica alguns dos principais algoritmos:  k-NN, árvores de decisão, máquina de vetores suporte, TF-IDF e regressão logística, mas sem se aprofundar na implementação destes. Um dos pontos fortes de “Data Science para Negócios” é justamente a diversidade de explicações dos assuntos abordados, utilizando recursos visuais para explicar os algoritmos. Outro ponto interessante é que, diferente de outros livros da área, este passa mais tempo discutindo os temas em aplicações práticas, o que deixa a teoria mais tangível.

 

Recomendamos esse livro para quem deseja ter uma visão geral da área e para aqueles que desejam gerenciar projetos e cientistas de dados em uma organização, e ainda aos que desejam aprender a  mostrar as vantagens da mineração, análise e visualização de dados de forma simples e eficaz. Se você é um desses, boa leitura!

 

 

Categorias
Ciência de Dados Destaque

Os 11 melhores canais de Data Science no Telegram

No Telegram, você encontra milhares de canais sobre os temas mais variados, entre eles, o de Ciência de Dados.

Nessa imensidão de conteúdos, é sempre bom ter uma dica para encontrar os melhores. Hoje, nós reunimos uma lista com 11 canais de Ciência de Dados no Telegram que todo cientista de dados precisa participar.

 

Confira:

1- (Canal) Insight Lab

Grupo de discussão do Insight Lab sobre Ciência de Dados, Inteligência Artificial e áreas correlatas.

 

2 – (Grupo) [DS & R] Ciência de Dados & R

Grupo destinado a estudantes e programadores da linguagem R ou de Ciência de Dados

 

3- (Grupo) Dados Abertos .BR

Discussões sobre tudo relacionado ao tema dados abertos no Brasil e no mundo. 

 

4- (Canal) Pizza de Dados

Notícias do Pizza de Dados,  podcast brasileiro sobre Ciência de Dados. Eles também divulgam notícias, eventos e dicas da área.

 

5 – (Canal) Data Science by ODS.ai

Muito popular no Telegram, o canal cobre conteúdos de IA, Big Data, Machine Learning, Estatística e Matemática em geral.

 

6 – (Canal) Artificial Intelligence && Deep Learning

Canal para quem é apaixonado por IA, Machine Learning, Deep Learning, Visão Computacional e Processamento de Imagem.

 

7 – (Canal) Artificial Intelligence

Focado em oferecer dicas de tutoriais, artigos, cursos e livros da área de Ciência de Dados.

 

8 – (Canal) Machine Learning

Divulgação de artigos de pesquisa, cursos e tutoriais em Data Science, IA e Machine Learning.

 

9 – (Grupo) bitgrit Data Science Community 

Com uma plataforma online de competições em IA, a bitgrit, seu grupo no telegram é voltado para cientistas de dados compartilharem seus conhecimentos e dúvidas na área.

 

10- (Canal) Data Learning 

Canal dedicado à Ciência de Dados, Machine Learning, Deep Learning e Redes Neurais. Aqui você vai encontrar livros, dicas de cursos, exemplos de aplicações e outros materiais. 

 

11- (Canal) Computer Science and Programing 

O canal traz um universo de conteúdos para você aprender Visão Computacional, Machine Learning, Deep Learning, IA e programação em Python.

 

Esse foi o último item da nossa lista, mas você também deve ter seus canais de Data Science preferidos, compartilha eles aqui nos comentários e ajude essa lista a crescer.

 

 

 

 

 

Categorias
Ciência de Dados Destaque Tecnologia

Os 10 melhores Ted Talks de tecnologia

Até onde uma ideia pode chegar? “Até o céu!”, diria Santos-Dumont. 

É, Santos, elas podem ir além. Elas vão mais longe, e são muito mais significativas, quando são compartilhadas e se juntam a uma outra ideia.

Falando em ideias se encontrando, a gente já pensa no TED Talks, um evento que começou em 1984 juntando tecnologia, entretenimento e design, com seu slogan “Ideas worth spreading”. O TED é um dos eventos de maior audiência do mundo, e se tornou o fenômeno que conhecemos quando passou a disponibilizar as palestras gratuitamente nos meios online. A partir daí, as palestras puderam ser espalhadas em uma outra escala, chegando a um público de milhões.

O Ted é uma ideia que se espalhou e, com 36 anos de existência, já trouxe ao palco algumas das pessoas mais inspiradoras, criativas e inovadoras do campo da tecnologia. Em meio a esse universo de grandes conversas, hoje, nós vamos compartilhar a nossa lista dos 10 melhores Ted Talks de IA, dados e tecnologia.

A forma como a lista está ordenada não significa uma ordem de preferência. Olha as palestras que nós escolhemos:

 

1. O que acontece quando nossos computadores ficam mais inteligentes do que nós?

A inteligência artificial está ficando mais inteligente rapidamente. Dentro deste século, sugerem pesquisas, uma IA de computador poderá ser tão “inteligente” quanto um ser humano. E então, diz Nick Bostrom, nos ultrapassará: “A inteligência das máquinas é a última invenção que a humanidade precisará fazer”. Filósofo e tecnólogo, Bostrom nos pede que pensemos muito sobre o mundo que estamos construindo agora, impulsionado por máquinas pensantes. Nossas máquinas inteligentes ajudarão a preservar a humanidade e nossos valores ou terão valores próprios?

 

2. As melhores estatísticas que você já viu

Você nunca viu dados sendo apresentados assim. Com o drama e a urgência de um apresentador de esportes, o guru das estatísticas Hans Rosling desmascara mitos sobre o chamado “mundo em desenvolvimento”.

 

3. Os trabalhos que vamos perder para as máquinas – e os que não vamos

O aprendizado de máquina não é apenas para tarefas simples, como avaliar o risco de crédito e classificar e-mails. Hoje, ele é capaz de fazer aplicações muito mais complexas, como classificar dissertações e diagnosticar doenças. Com esses avanços, surge uma pergunta desconfortável: um robô fará o seu trabalho no futuro?

 

4. Como estamos ensinando computadores a entender imagens

Quando uma criança muito jovem olha para uma foto, ela pode identificar elementos simples: “gato”, “livro”, “cadeira”. Agora, os computadores estão ficando inteligentes o suficiente para fazer isso também. O que vem depois? Em uma palestra arrebatadora, a especialista em visão computacional Fei-Fei Li, codiretora do Stanford’s Human-Centered AI Institute, descreve o estado da arte, incluindo o banco de dados de 15 milhões de fotos que sua equipe construiu para “ensinar” um computador a entender imagens, e as principais ideias que estão por vir.

 

5. Como a IA pode compor uma trilha sonora personalizada para sua vida

Conheça a AIVA, uma inteligência artificial que foi treinada na arte da composição musical lendo mais de 30.000 das melhores partituras da história. Em uma palestra e demonstração hipnotizantes, Pierre Barreau toca composições criadas pela AIVA e compartilha seu sonho: criar trilhas sonoras originais ao vivo baseadas em nossos humores e personalidades.

 

6. Como os algoritmos moldam nosso mundo

Vivemos em um mundo administrado por algoritmos, programas de computador que tomam decisões ou resolvem problemas para nós. Nesta conversa engraçada e fascinante, Kevin Slavin mostra como os algoritmos modernos determinam os preços das ações, as táticas de espionagem e até os filmes que você assiste. Mas ele pergunta: se dependemos de algoritmos complexos para gerenciar nossas decisões diárias – quando começamos a perder o controle?

 

7. O que é IA – e o que não é

Nesta conversa informativa e inspiradora, Sebastian Thrun discute o progresso do aprendizado profundo, por que não devemos temer a IA e como a sociedade será melhor se o trabalho tedioso for feito com a ajuda de máquinas. “Apenas 1% das coisas interessantes já foram inventadas”, diz Thrun. “Eu acredito que todos nós somos insanamente criativos … [IA] nos permitirá transformar a criatividade em ação”.

 

8. Verdade em Ciência de Dados

Neste TEDx, a pesquisadora da MITRE Corporation, Jaya Tripathi, apresenta métodos fundamentais em Ciência de Dados ao descrever seu processo para chegar à verdade em sua pesquisa sobre demografia e dependência.

 

9. Como manter o viés humano fora da IA

Os algoritmos de IA tomam decisões importantes sobre você o tempo todo. Mas o que acontece quando essas máquinas são construídas com viés humano codificado em seus sistemas? A tecnóloga Kriti Sharma explora como a falta de diversidade na tecnologia está se infiltrando em nossa IA, e oferece três maneiras pelas quais podemos começar a criar algoritmos mais éticos.

 

10. Como a IA pode melhorar nossa memória, trabalho e vida social

Quão inteligentes nossas máquinas podem nos tornar? Tom Gruber, co-criador da Siri, quer criar uma “IA humanística” que aumente e colabore conosco, em vez de competir (ou substituir). Ele compartilha sua visão sobre um futuro em que a IA nos ajuda a alcançar um desempenho sobre-humano na percepção, criatividade e função cognitiva, desde turbinar nossas habilidades de design até nos ajudar a lembrar tudo o que lemos e o nome de todos que já conhecemos. “Estamos no meio de um renascimento na IA”, diz Gruber. “Toda vez que uma máquina fica mais inteligente, nós ficamos mais inteligentes”.

 

E você, quais Ted Talks mais te marcaram? Compartilha com a gente nos comentários.

*Os resumos apresentados sobre as palestras foram adaptados do site do TED.

 

 

 

Categorias
Ciência de Dados Dados Destaque

Webinar: Como os modelos epidemiológicos são aplicados ao Covid-19: entendendo casos reais

Diante de um cenário tão complexo quanto o atual, onde grande parte da população se sente desorientada e assustada, é fundamental difundir informações corretas e claras. Por isso, estamos lançando o 1º webinar do Insight Lab: “Como os modelos epidemiológicos são aplicados ao Covid-19: entendendo casos reais”. 

Com transmissão online e gratuita no YouTube, o evento acontecerá nesta quarta-feira (20 de maio), começando às 16h, e contará com cinco especialistas que esclarecerão, através de casos reais observados na pandemia de 2020, os modelos epidemiológicos usados para entender e prever o comportamento do Covid-19 entre as populações. 

Faça parte da conversa!

 

Serviço

Dia: 20 de maio

Horário: 16h

Clique aqui para acessar o webinar e adicionar um lembrete na agenda.

 

Sair da versão mobile