Artificial Intelligence e Cyber Security estão entre os assuntos que eu separei para assistir no #VivaTech em Paris, com tantas ferramentas de IA por aí além de novas ameaças de segurança como o WannaCry, o famoso ransomware que paralisou empresas recentemente eu achei que valia a pena ouvir o que especialistas do mundo todo tinham a falar sobre o assunto.

No painel Equilíbrio da Ética Humana e da Inteligência Artificial pude acompanhar uma troca de ideias bastante estimulante e preocupante entre Wendell Wallach, um pesquisador de ética de Yale e Eleanor (Nell) Watson, uma engenheira da Singularity University que trabalha com robótica e inteligência artificial.

Um dos pontos centrais da discussão é que não existe consenso humano sobre ética, vejam o seguinte exemplo: Um carro autônomo está em uma situação onde ele deve atropelar alguém ou frear bruscamente matando seu ocupante. A maioria das pessoas responde que deveria evitar que a outra pessoa fosse atropelada. Mas quando perguntamos para a mesma pessoa se ela compraria o carro autônomo sabendo que ele privilegiaria a vida de outra pessoa ao invés do ocupante elas responde que não comprariam. Ou resumindo: uma coisa é o que eu acredito que deve ser feito, outra coisa bem diferente é o que eu estou disposto a fazer.

Parece bem óbvio que devemos programar as máquinas com um mínimo de ética necessário para evitar o cenário do filme Exterminador do Futuro, mas quando olhamos pra ética humana ela não parece necessariamente o melhor modelo para ensinar as máquinas. Entra em campo a discussão de uma nova ética, algo próximo do consenso que seria utilizado para programar as inteligências artificiais do futuro. Hoje há inteligências artificiais com comportamentos éticos embutidos, mas que seguem basicamente a ética do programador, sem esse consenso estamos correndo o riscos de programadores antiéticos usarem inteligência artificial para o crime.

É exatamente nesse ponto que entra a questão da Cyber Segurança e Inteligência Artificial. Num painel com Menny Barziley, CEO & Estrategista de Cyber Segurança na FortyTwo e Dave Palmer, Diretor de Tecnologia na Darktrace, forma discutidos como a Inteligência Artificial deve mudar o cenário de Cyber Crimes.

Vejam só, podemos usar sistemas de inteligência artificial para criar produtos mais seguros, uma inteligência artificial pode testar um sistema contra todas as falhas documentadas e eventualmente descobrir novas falhas não documentadas combinando essas brechas conhecidas de segurança.

Mas por outro lado nos sistemas já existentes (tanto hardware quanto software), uma inteligência artificial pode descobrir falhas novas facilmente, permitindo que programadores mal intencionados criem ataques cada vez mais criativos, forçando toda a indústria tecnológica a um constante upgrade, que principalmente em dispositivos físicos, nem sempre é possível ou simples.

Com suas senhas em risco novas soluções de segurança aparecem. Uma startup bastante interessante que conheci no evento foi a Secret Double Octopus, um autenticador que adiciona duas seguranças extras quando comparado com um autenticador comum.

Ele exige uma confirmação biométrica (digital) de quem está em posse do dispositivo mobile e divide a informação trafegada em diferentes rotas, de forma que se você interceptar no roteador ou em outro ponto do caminho da autenticação você só vai encontrar ali parte da chave, tornando impossível descriptografar mesmo que através de força bruta.

Uma solução sem senhas para um mundo onde as senhas são cada vez menos seguras e já levando em consideração computadores quânticos onde talvez o poder de processamento seja tão grande que consiga quebrar as chaves de criptografia atuais.

Um comentário em “Ética na Inteligência Artificial e Cyber Segurança

Os comentários estão encerrados.