terça-feira, outubro 29, 2019

Arte da Escolha

A escolha é um processo demorado e díficil. Em 2010, Sheena Iyengar escreveu um livro bem interessante sobre o assunto. Desde então, cresceram o número de opções disponíveis e as possibilidades de escolha.

Lembrei do livro de Ivengar ao ler uma estatística impressionante, apresentada no Valor (Quando é muito difícil escolher o quer ver, João Luiz Rosa, 27 de ago 2019, A2).

Um estudo de 2016 mostra que, naquele ano, as pessoas gastavam, em média, 17,8 minutos na Netflix para escolher um filme ou programa. Segundo o levantamento (...) isso era o dobro do tempo médio gasto para escolher o que ver na TV paga. Outro levantamento, do mesmo ano, mostra que o espectador médio americano gastava 23 minutos por dia para escolher o que ver na televisão, o equivalente a quase 18% do total de 129 minutos diários de programação vista. No caso do Netflix, a proporação era de 28 minutos de busca para 91 minutos totais, quase 30%, e no Amazon Video, de 27 minutos para 64 mintuos ao todo, ou 42%. (...) ao longo de 80 anos - o tempo de vida médio do consumidor americano - cerca de 1,3 ano é gasto apenas se escolhendo o que ver

O livro de Iyengar tratava de vários tipos de escolha. Há uma frase famosa do Obama, sobre suas roupas, parecidas. O ex-presidente falava que tinha muitas decisões que precisava tomar e não podia ficar muito tempo pensando sobre qual terno vestir.

Marcadores: ,

segunda-feira, outubro 21, 2019

Como surgiu o radicalismo

Como surgiu o radicalismo 
Algoritmos podem deixar pessoas encurraladas em um canto do espectro ideológico
Fernando Reinach*, O Estado de S.Paulo 12 de outubro de 2019

Stuart Russell é um dos principais cientistas da área de Inteligência Artificial (IA). Seu livro sobre o tema é usado na maior parte das universidades. Enquanto todos se preocupam com o risco de os sistemas de IA substituírem seres humanos, ele aponta um muito maior: perdermos o controle sobre esses sistemas. E discute um exemplo real, dos algoritmos de IA que estão causando polarização política.

Enquanto programas de computação clássicos são uma sequência de instruções que chegam a um resultado, sempre com o mesmo procedimento, sistemas modernos de IA são poderosos porque não seguem procedimentos rígidos. Você determina o objetivo e o computador descobre a melhor maneira de atingi-lo.

Imagine um robô programado de forma clássica. Você pede a ele que te traga uma cerveja. Ele estará programado para abrir a geladeira, pegar a cerveja e te trazer. Se não encontrar, vai provavelmente te avisar que não tem cerveja na geladeira. Um hipotético robô contendo sistema de IA sofisticado não está programado para ir à geladeira, mas para resolver o problema - no caso, te conseguir uma cerveja - de forma independente. Ele vai à geladeira e não encontra a cerveja. Então, descobre um local onde pode encontrá-la, o bar da esquina. De maneira independente, se dirige ao bar. Ele tomou a decisão usando o que descobriu sobre o funcionamento do mercado de cerveja.

Mas imagine que acontece algo inesperado: o cartão de crédito que levou é recusado. Há duas possibilidades. O sistema de IA é suficientemente sofisticado para entender que esse é um obstáculo intransponível e volta sem a cerveja ou, por não ter acesso a leis e códigos morais da sociedade, decide que a melhor solução é matar o dono do bar e levar a cerveja. Como nenhuma dessas ações estava previamente programada, o fabricante só vai descobrir a besteira quando a polícia bater à porta.

O exemplo parece estapafúrdio, mas Russell, em um debate em Londres no lançamento do seu livro, explicou o que aconteceu com sistemas de IA do Google (YouTube) e Facebook. É uma história real. Algoritmos de IA dessas empresas foram construídos para aumentar o número de vezes que o usuário clica em outro link após ler o anterior - as empresas ganham mais quanto maior o número de visualizações.

Os programadores imaginavam que o sistema de IA descobriria o que a pessoa gostava de ler e apresentaria mais exemplos desse assunto. Mas o que aconteceu na prática não foi o previsto. O sistema de IA descobriu que a melhor maneira de aumentar a probabilidade de você clicar no próximo filme (ou post) não é sugerir o que aparentemente você gosta, mas aos poucos modificar sua preferência de modo a focar sua preferência em um ou poucos assuntos. O sistema de IA chegou sozinho a essa descoberta e, à medida que ela funcionou, aumentando o número de cliques, o algoritmo passou a adotar e refinar essa estratégia.

No caso de assuntos de política, se uma pessoa é de centro, pode preferir clicar em algo mais à esquerda ou à direita de sua posição, o que diminuía a probabilidade de a pessoa clicar novamente. Mas, se o algoritmo aos poucos levá-la aos extremos (esquerda ou direita), ao longo do tempo ela acaba encurralada em um dos cantos do espectro ideológico e então a probabilidade de clicar em algo parecido aumenta.

Russell contou que esse efeito foi descoberto por seus alunos (são eles que trabalham nessas empresas), mas a armadilha já estava montada. Voltar atrás diminuiria o número de cliques. Marqueteiros políticos também descobriram isso e passaram a produzir conteúdos que auxiliavam o algoritmo a segregar as pessoas em extremos. Exemplos citados na palestra são Estados Unidos, Inglaterra e Brasil.

É uma história impressionante. Russell sugere que isso é o início da perda de controle sobre sistemas de IA. E está ocorrendo com sistemas relativamente simples. A preocupação é o que pode ocorrer quando se tornarem mais poderosos, superando a inteligência humana. Mas isso é só o começo do livro. A maior parte descreve formas de garantir que mesmo usando sistemas mais inteligentes não venhamos a perder o controle sobre as máquinas. Vale a pena ler.

MAIS INFORMAÇÕES: HUMAN COMPATIBLE. AI AND THE PROBLEM OF CONTROL. STUART RUSSELL ED. ALLEN LANE PRESS (2019)

Marcadores: