Como surgiu o radicalismo
Como surgiu o radicalismo
Algoritmos podem deixar pessoas encurraladas em um canto do espectro ideológico
Fernando Reinach*, O Estado de S.Paulo 12 de outubro de 2019
Stuart Russell é um dos principais cientistas da área de Inteligência Artificial (IA). Seu livro sobre o tema é usado na maior parte das universidades. Enquanto todos se preocupam com o risco de os sistemas de IA substituírem seres humanos, ele aponta um muito maior: perdermos o controle sobre esses sistemas. E discute um exemplo real, dos algoritmos de IA que estão causando polarização política.
Enquanto programas de computação clássicos são uma sequência de instruções que chegam a um resultado, sempre com o mesmo procedimento, sistemas modernos de IA são poderosos porque não seguem procedimentos rígidos. Você determina o objetivo e o computador descobre a melhor maneira de atingi-lo.
Imagine um robô programado de forma clássica. Você pede a ele que te traga uma cerveja. Ele estará programado para abrir a geladeira, pegar a cerveja e te trazer. Se não encontrar, vai provavelmente te avisar que não tem cerveja na geladeira. Um hipotético robô contendo sistema de IA sofisticado não está programado para ir à geladeira, mas para resolver o problema - no caso, te conseguir uma cerveja - de forma independente. Ele vai à geladeira e não encontra a cerveja. Então, descobre um local onde pode encontrá-la, o bar da esquina. De maneira independente, se dirige ao bar. Ele tomou a decisão usando o que descobriu sobre o funcionamento do mercado de cerveja.
Mas imagine que acontece algo inesperado: o cartão de crédito que levou é recusado. Há duas possibilidades. O sistema de IA é suficientemente sofisticado para entender que esse é um obstáculo intransponível e volta sem a cerveja ou, por não ter acesso a leis e códigos morais da sociedade, decide que a melhor solução é matar o dono do bar e levar a cerveja. Como nenhuma dessas ações estava previamente programada, o fabricante só vai descobrir a besteira quando a polícia bater à porta.
O exemplo parece estapafúrdio, mas Russell, em um debate em Londres no lançamento do seu livro, explicou o que aconteceu com sistemas de IA do Google (YouTube) e Facebook. É uma história real. Algoritmos de IA dessas empresas foram construídos para aumentar o número de vezes que o usuário clica em outro link após ler o anterior - as empresas ganham mais quanto maior o número de visualizações.
Os programadores imaginavam que o sistema de IA descobriria o que a pessoa gostava de ler e apresentaria mais exemplos desse assunto. Mas o que aconteceu na prática não foi o previsto. O sistema de IA descobriu que a melhor maneira de aumentar a probabilidade de você clicar no próximo filme (ou post) não é sugerir o que aparentemente você gosta, mas aos poucos modificar sua preferência de modo a focar sua preferência em um ou poucos assuntos. O sistema de IA chegou sozinho a essa descoberta e, à medida que ela funcionou, aumentando o número de cliques, o algoritmo passou a adotar e refinar essa estratégia.
No caso de assuntos de política, se uma pessoa é de centro, pode preferir clicar em algo mais à esquerda ou à direita de sua posição, o que diminuía a probabilidade de a pessoa clicar novamente. Mas, se o algoritmo aos poucos levá-la aos extremos (esquerda ou direita), ao longo do tempo ela acaba encurralada em um dos cantos do espectro ideológico e então a probabilidade de clicar em algo parecido aumenta.
Russell contou que esse efeito foi descoberto por seus alunos (são eles que trabalham nessas empresas), mas a armadilha já estava montada. Voltar atrás diminuiria o número de cliques. Marqueteiros políticos também descobriram isso e passaram a produzir conteúdos que auxiliavam o algoritmo a segregar as pessoas em extremos. Exemplos citados na palestra são Estados Unidos, Inglaterra e Brasil.
É uma história impressionante. Russell sugere que isso é o início da perda de controle sobre sistemas de IA. E está ocorrendo com sistemas relativamente simples. A preocupação é o que pode ocorrer quando se tornarem mais poderosos, superando a inteligência humana. Mas isso é só o começo do livro. A maior parte descreve formas de garantir que mesmo usando sistemas mais inteligentes não venhamos a perder o controle sobre as máquinas. Vale a pena ler.
MAIS INFORMAÇÕES: HUMAN COMPATIBLE. AI AND THE PROBLEM OF CONTROL. STUART RUSSELL ED. ALLEN LANE PRESS (2019)
Algoritmos podem deixar pessoas encurraladas em um canto do espectro ideológico
Fernando Reinach*, O Estado de S.Paulo 12 de outubro de 2019
Stuart Russell é um dos principais cientistas da área de Inteligência Artificial (IA). Seu livro sobre o tema é usado na maior parte das universidades. Enquanto todos se preocupam com o risco de os sistemas de IA substituírem seres humanos, ele aponta um muito maior: perdermos o controle sobre esses sistemas. E discute um exemplo real, dos algoritmos de IA que estão causando polarização política.
Enquanto programas de computação clássicos são uma sequência de instruções que chegam a um resultado, sempre com o mesmo procedimento, sistemas modernos de IA são poderosos porque não seguem procedimentos rígidos. Você determina o objetivo e o computador descobre a melhor maneira de atingi-lo.
Imagine um robô programado de forma clássica. Você pede a ele que te traga uma cerveja. Ele estará programado para abrir a geladeira, pegar a cerveja e te trazer. Se não encontrar, vai provavelmente te avisar que não tem cerveja na geladeira. Um hipotético robô contendo sistema de IA sofisticado não está programado para ir à geladeira, mas para resolver o problema - no caso, te conseguir uma cerveja - de forma independente. Ele vai à geladeira e não encontra a cerveja. Então, descobre um local onde pode encontrá-la, o bar da esquina. De maneira independente, se dirige ao bar. Ele tomou a decisão usando o que descobriu sobre o funcionamento do mercado de cerveja.
Mas imagine que acontece algo inesperado: o cartão de crédito que levou é recusado. Há duas possibilidades. O sistema de IA é suficientemente sofisticado para entender que esse é um obstáculo intransponível e volta sem a cerveja ou, por não ter acesso a leis e códigos morais da sociedade, decide que a melhor solução é matar o dono do bar e levar a cerveja. Como nenhuma dessas ações estava previamente programada, o fabricante só vai descobrir a besteira quando a polícia bater à porta.
O exemplo parece estapafúrdio, mas Russell, em um debate em Londres no lançamento do seu livro, explicou o que aconteceu com sistemas de IA do Google (YouTube) e Facebook. É uma história real. Algoritmos de IA dessas empresas foram construídos para aumentar o número de vezes que o usuário clica em outro link após ler o anterior - as empresas ganham mais quanto maior o número de visualizações.
Os programadores imaginavam que o sistema de IA descobriria o que a pessoa gostava de ler e apresentaria mais exemplos desse assunto. Mas o que aconteceu na prática não foi o previsto. O sistema de IA descobriu que a melhor maneira de aumentar a probabilidade de você clicar no próximo filme (ou post) não é sugerir o que aparentemente você gosta, mas aos poucos modificar sua preferência de modo a focar sua preferência em um ou poucos assuntos. O sistema de IA chegou sozinho a essa descoberta e, à medida que ela funcionou, aumentando o número de cliques, o algoritmo passou a adotar e refinar essa estratégia.
No caso de assuntos de política, se uma pessoa é de centro, pode preferir clicar em algo mais à esquerda ou à direita de sua posição, o que diminuía a probabilidade de a pessoa clicar novamente. Mas, se o algoritmo aos poucos levá-la aos extremos (esquerda ou direita), ao longo do tempo ela acaba encurralada em um dos cantos do espectro ideológico e então a probabilidade de clicar em algo parecido aumenta.
Russell contou que esse efeito foi descoberto por seus alunos (são eles que trabalham nessas empresas), mas a armadilha já estava montada. Voltar atrás diminuiria o número de cliques. Marqueteiros políticos também descobriram isso e passaram a produzir conteúdos que auxiliavam o algoritmo a segregar as pessoas em extremos. Exemplos citados na palestra são Estados Unidos, Inglaterra e Brasil.
É uma história impressionante. Russell sugere que isso é o início da perda de controle sobre sistemas de IA. E está ocorrendo com sistemas relativamente simples. A preocupação é o que pode ocorrer quando se tornarem mais poderosos, superando a inteligência humana. Mas isso é só o começo do livro. A maior parte descreve formas de garantir que mesmo usando sistemas mais inteligentes não venhamos a perder o controle sobre as máquinas. Vale a pena ler.
MAIS INFORMAÇÕES: HUMAN COMPATIBLE. AI AND THE PROBLEM OF CONTROL. STUART RUSSELL ED. ALLEN LANE PRESS (2019)
Marcadores: radicalismo
0 Comments:
Postar um comentário
<< Home