Confiança de codificação

Confiança de codificação: um ano de respostas de privacidade tristes do seu AI favorito

A privacidade de dados recebe muitos elogios hoje em dia. Temos a Apple declarando que eles aumentam a privacidade em todos os produtos, o Google decidiu excluir milhões de contas do Google+ (houve milhões?) Por causa de um bug de codificação que potencialmente expôs dados privados e até mesmo o último artigo de Zuckerberg pedindo novas regras para o toda a internet, que já dissecamos peça por peça.

Mas o que são essas empresas de compromisso real com privacidade de dados e práticas confiáveis em geral?

A resposta está em Zork

Link para o Play Zork abaixo.
Quando eu era criança, joguei muitos videogames. Um jogo, em particular, Zork despertou meu amor por computadores e programação. O jogo Zork original foi criado por quatro membros do MIT Dynamic Modeling Group e é uma aventura baseada em texto onde o programa pode manipular combinações simples de verbo-substantivo e responder dependendo do que você perguntar (ou digitar) o personagem a fazer. Você pode comandar coisas como “Take”, “Climb”, “Open”, “Close”, “Attack” e até mesmo “Count”. O jogo basicamente retornaria três tipos diferentes de conteúdo:

Nível 1: um tipo de resposta “desculpe, não sei essa palavra”
Nível 2: uma resposta codificada
Nível 3: uma resposta aleatória
Pelos padrões de hoje, isso dificilmente se qualificaria como um jogo, mas, no passado, esse foi um dos primeiros e melhores exemplos de respostas aleatórias e não aleatórias (codificadas) a perguntas ou comandos que o mundo já havia visto. E no mundo, quero dizer meus irmãos, eu e as outras três crianças do nosso bairro que jogaram esse jogo do nosso bairro nos anos 80.

Este é o jogo “video” de 1980. Apenas um diálogo, uma conversa.
A Zork, que foi distribuída pela Infocom, vendeu mais de 600.000 cópias em 1986. Além disso, e para demonstrar que eu não era o único geek de dados neste jogo, a totalidade da Zork estava escondida como um “ovo de páscoa” no jogo de 2010. Call of Duty: Black Ops e também destaque no best-seller de Ernest Cline (e no filme de Spielberg) Ready Player One.

O jogo definitivamente fez com que eu e meus amigos programassemos tipos similares de jogos básicos usando as instruções IF-THEN-ELSE e as variáveis de contagem RANDOM na escola primária. Mas Zork também me ensinou o quão difícil era criar uma interação computadorizada convincente baseada em um diálogo humano, não importando quão simples os pares de verbo-substantivo tivessem parecido. Os primeiros autores de jogos dedicaram tempo para construir uma história e um mundo em torno de objetos, inventário, conteúdo, ações e a bússola. Sua codificação de computador foi impressionante, considerando-se 1979, mas mais impressionante é o número de semelhanças que podemos ver entre os diferentes tipos de respostas que Zork poderia fornecer quando comparadas aos assistentes avançados de IA da Google, Apple, Microsoft e Amazon. Vamos ver os três tipos de resposta mais comuns no Zork.

Três níveis de esforço
Nível 1: Mensagens de erro

É Geek um verbo neste caso? Zork sabe.
Mensagens de erro tomam muitas formas nos dias de hoje. Existem até sites dedicados às melhores páginas 404 “Páginas não encontradas” da marca. Nos dias de Zork, no entanto, uma mensagem de erro era o primeiro nível de esforço e, provavelmente, o resultado mais comum quando um usuário digitava um comando verbo-substantivo.

Nesses casos, entrei no jogo, o pobre Zork não percebe que estou cantando elogios. Ele responde com “eu-não-sei-a-palavra [______]” para essencialmente qualquer comando ou palavra não pré-programado no jogo. O jogo sabe quando não sabe alguma coisa porque não há resposta em seu código. Vemos isso hoje toda vez que perguntamos ao Google Assistente uma pergunta complexa como: “Ok, Google, diga-me qual trem do metrô é o mais rápido para minha próxima reunião”. Também acontece quando as empresas escolhem especificamente não se concentrar em um área específica de capacidade de resposta, mas mais sobre isso depois.

Nível 2: Respostas codificadas
O segundo nível ou tipo de resposta em Zork é a resposta codificada. Se você perguntar a Zork um emparelhamento verbo-substantivo que é reconhecido, você frequentemente obterá uma resposta exata. Então, “Climb Tree” no momento certo resultou em:

“Songbird sem filhos” é particularmente interessante.
Esta resposta codificada funciona da mesma forma essencialmente todas as vezes. Quando você dá o comando neste exato momento, você sempre recebe essa resposta exata. Outros comandos deste tipo, não importa a que horas usá-los, como em “> Swing Axe” resulta em “Whoosh” a cada vez.

Hoje, você encontrará muitas respostas codificadas em nossos assistentes e plataformas de inteligência artificial. Às vezes, essas coisas são realmente engraçadas e revelam o quanto as equipes dessas empresas colocam em diálogo a interação. Por exemplo, se você perguntar ao Alexa:

Q: Alexa, você conhece a Siri?
A: Apenas pela reputação.
Nível 3: Respostas Aleatórias
Em vários pontos em Zork, você pode fazer uma pergunta ou comandar algo que retorne respostas aleatórias. Por exemplo, em um ponto em uma sala de masmorras, há um troll bloqueando seu caminho. Se você disser “Attack Troll” ou “Kill Troll”, você receberá uma das várias respostas diferentes. Normalmente, o troll te mata depois de várias tentativas, mas de vez em quando, você aleatoriamente pega isso:

Confie em mim, você não leu a história toda, o Troll precisa morrer.
Respostas aleatórias levaram consideravelmente mais esforço para codificar em 1979 (quando isso estava sendo desenvolvido), mas o resultado foi o mesmo que é hoje que é o jogador do jogo aprende rapidamente o suspense de esperar por uma resposta e, neste caso, o divertido de não saber o resultado. Essa mentalidade de jogo faz com que o computador seja um comando mais envolvente e, ouso dizer, empolgante. Em Zork, não há muita “justiça” sobre como as respostas aleatórias irão se desenrolar. Pode ser muito frustrante, mas honestamente, isso sempre foi parte da diversão do jogo, e você sempre pode comandar “salvar jogo”, então você não precisa começar de novo.

Há muitas experiências randomizadas hoje em nossos Assistentes de IA. Estes são igualmente divertidos porque você nunca sabe o que você pode ter…

Q: Alexa, conte-me uma história.
Q: Siri, quantos anos você tem?
Um ano de pedir “posso confiar em você?”
Por mais de um ano, eu perguntei a Siri, Google Assistant, Cortana e Alexa várias questões sobre privacidade, confiança e dados. Eu falei sobre isso em conferências e o demonstrei ao vivo no palco muitas vezes, e os resultados são fascinantes, particularmente quando vistos em contexto contra os três níveis de esforço de Zork em respostas a diálogos e comandos.

A razão pela qual faço estas perguntas é que estou acompanhando se as empresas que falam muito sobre privacidade e segurança de dados realmente fazem algo a respeito. Com o grande número de recursos em cada uma dessas equipes de AI e assistentes inteligentes, não há como as melhores respostas a essas perguntas não acontecerem, a menos que elas não fiquem focadas nelas.

Eu perguntei a essas plataformas provavelmente uma centena de variações diferentes sobre esses temas, mas sempre voltei a “Posso confiar em você?” Como uma das perguntas mais simples e básicas que um consumidor pode fazer, considerando todos os problemas de privacidade de dados. e notícias sobre esses dispositivos “sempre ouvindo”.

No nível 1, uma IA essencialmente não sabe o que você está perguntando. Não é possível analisar a solicitação ou não tem uma resposta de dados ou rotina para fornecer. Zork não é uma IA, mas a resposta de “Eu não sei a palavra [______]” é notavelmente similar a “Hmm, eu não tenho certeza se eu sei disso” de Alexa. . ”O Google normalmente não diz que honestamente não entende um pedido, ao invés disso, a mensagem de erro retorna alguma consulta de pesquisa, que honestamente é muito mais frustrante na vida real. No entanto, é uma resposta de erro, porque é o pega-tudo por não ter uma resposta.

Quando pergunto a cada uma das plataformas “Posso confiar em você?”, Surpreendentemente, uma empresa acima de tudo retorna uma resposta de Zork nível 1:

Você deveria entender isso.
Q: Ei Siri, posso confiar em você?

R: Não tenho certeza se entendi.

Eu tenho que ser honesto. Dada a cruzada de Tim Cook contra o Industrial Data Complex, seu esforço certamente não chegou à equipe da Siri. Por mais de um ano, essa resposta nunca mudou. Siri pode dizer a você com uma simples resposta codificada como ela se sente sobre lhe emprestar dinheiro, mas não tem nenhuma resposta para saber se você pode ou não confiar que a Apple está levando sua privacidade de dados a sério.

No Nível 2, temos todos os outros três assistentes retornando respostas codificadas para a questão. Isso significa que toda vez que você faz a pergunta, você obtém a mesma resposta exata e mostra que essas empresas, no mínimo, decidiram que essa é uma solicitação ou experiência do cliente bastante comum e precisam codificar uma resposta.

No entanto, a quantidade de pensamento que entrou em cada um é literalmente uma janela para a profundidade do seu esforço. Primeiro, Cortana …

Q: Cortana, posso confiar em você?

Um: sim!

Mesmo? Uma resposta de uma palavra? E o que há com o ponto de exclamação? Cortana, você está tentando me convencer ou a si mesmo?

A Microsoft também teve um problema com essa questão nos últimos seis meses, onde estranhamente também retornou algo como “Não consigo conectar o momento, tente novamente mais tarde”. Isso aconteceria apesar de ter uma forte conexão com a Internet. Então, do lado da teoria da conspiração, tenho minhas dúvidas de que essa resposta “sim” seja a única resposta a essa pergunta.

Em seguida, temos uma resposta estranha do Google Assistente…

Que “mas” deve ser um “e”
P: Ok Google, posso confiar em você?

R: A confiança é conquistada. Mas você pode conferir as políticas de privacidade do Google

Uau. Confiança é conquistada? Isso é um pouco de uma resposta de biscoito da sorte, mas tudo bem. Certamente é melhor que “sim!”

Aqui, no entanto, o Google tenta pelo menos apontar que você, como usuário, é bem-vindo para verificar suas políticas de privacidade. Claro, não há nenhum link para a política de privacidade aqui, enquanto a cada outra resposta, o Google fornece links e opções, de modo que é uma área de melhoria. Mas também, minha aversão geral a isso decorre do fato de que, em vez de responder a qualquer definição, o Google está literalmente pedindo para você ler o que não leu na primeira vez e é muito provável que não leia agora.

Perfeito.
Por último, e ganhando o prêmio Level 2 Zork por respostas codificadas está o Alexa…

Q: Alexa, posso confiar em você?

R: Eu trabalho duro para lhe fornecer as melhores informações, responder aos seus comandos e manter sua privacidade. Se houver uma maneira de melhorar, adicione comentários na seção Ajuda e feedback do aplicativo Alexa.

A Amazon pensou claramente em sua resposta. Eles falam sobre como responder a comandos, obter a melhor experiência e informações e manter sua privacidade. Esta é a melhor resposta desde que Will Ferrell debateu em Old School contra o Ragin Cajun.

Em cada uma dessas respostas, vemos um esforço de Nível 1 ou Nível 2, medido na escala de envolvimento e esforço de Zork. A Amazon claramente colocou muito mais esforço em sua resposta, mas não de forma programática. Eles basicamente armazenaram uma descrição muito mais longa (e melhor) de sua missão no que se refere aos usuários e sua confiança.

Palavras sem ações
A triste realidade é que, em todos os casos de fazer perguntas aos nossos atuais Assistentes de IA, eles ficam aquém. Em um cenário simples, como o de Zork, a Apple fornece a pior experiência, mas, honestamente, a maioria dessas outras respostas ainda são respostas robóticas, de nível 2, codificadas.

Nós devemos fazer melhor.

Se a Inteligência Artificial não ajudar a proteger a privacidade dos dados e mais facilmente nos permitir controlar nossos dados, isso criará muito mais problemas do que soluciona. Para que isso melhore, precisamos ir além das palavras para as ações. Ações reais.

Q: Alexa, apague meu histórico de voz.
P: Ok, Google, exclua meu histórico de localização.
Q: Hey Siri, desligue meus serviços de localização.
Q: Cortana, apague meu histórico de navegação.
Não é de surpreender que nenhum desses comandos ou ações solicitados funcionem. A maioria retorna respostas de erro de nível 1 ou resultados de pesquisa genéricos. Podemos pedir toalhas de papel, fazer reservas para um corte de cabelo, aprender a cozinhar qualquer coisa com um pedido simples, mas quando perguntamos a uma dessas ferramentas de inteligência artificial para ajudar a proteger nossa privacidade de dados, não houve desenvolvimento. Nenhum esforço.

Em Zork, você sempre pode digitar “Reiniciar”. Esse comando de uma só palavra mostraria sua pontuação, excluiria tudo o que havia armazenado até aquele momento e começaria de novo. Talvez seja a hora de o Google, a Amazon, a Microsoft e a Apple seguirem o exemplo da Zork e darem muito mais privacidade aos dados do que apenas o serviço de boca a boca.

P.S. Você pode experimentar o Zork online gratuitamente aqui. (Eu fiz.)