De outros

A inteligência artificial atingiu a fronteira da cerveja


Uma nova empresa está começando a fabricar cerveja usando inteligência artificial e um algoritmo que leva em consideração o feedback do cliente

Em breve torneiras como essas conterão cerveja feita por robôs.

A Inteligência Artificial continua alcançando novas fronteiras. pode perigo de vitória, derrotar os grandes mestres do xadrez, e diagnosticar condições médicas.

Também fez grandes ondas na indústria de alimentos ao contando calorias, atuando como chef, e criando novas receitas. No entanto, uma empresa está tentando trazer a tecnologia para um dos mais práticas antigas dos humanos: o consumo de álcool.

IntelligentX, uma empresa com sede em Londres, ensinou um robô para fazer cerveja usando um algoritmo. Os consumidores podem entrar no Facebook e compartilhar suas opiniões sobre a cerveja com o chatbot da empresa. O robô então recebe esse feedback e começa a fazer ajustes na cerveja. Ele também usa um processo de tomada de decisão para discernir se os ajustes foram bem-sucedidos.

O cofundador Hew Leith descreveu o produto final: “Estamos usando IA para dar ao nosso cervejeiro habilidades sobre-humanas, permitindo que eles testem e recebam feedback sobre nossa cerveja mais rápido do que nunca.”

O resultado pode ser extraordinário: uma cerveja que continua a melhorar e a refinar a sua paleta para satisfazer os desejos do seu cliente. No entanto, parece que algumas críticas negativas podem desviar a cerveja; inteligência artificial tem falhou ridiculamente antes, mesmo no indústria alimentícia.

Seja como for, o experimento deve ser divertido de assistir - especialmente no banquinho de bar favorito.


& # x27É & # x27 capaz de criar o próprio conhecimento & # x27: o Google revela a IA que aprende por conta própria

AlphaGo Zero venceu seu antecessor de 2015, que venceu o grande mestre Lee Sedol, 100 jogos de Go to 0.

AlphaGo Zero venceu seu predecessor de 2015, que venceu o grande mestre Lee Sedol, 100 jogos de Go to 0.

Em um grande avanço para a inteligência artificial, AlphaGo Zero levou apenas três dias para dominar o antigo jogo de tabuleiro chinês Go. sem ajuda humana

Última modificação em Quarta, 14 de fevereiro de 2018, 21,10 GMT

O grupo de inteligência artificial do Google, DeepMind, revelou a mais recente encarnação de seu programa Go-playing, AlphaGo - uma IA tão poderosa que derivou milhares de anos de conhecimento humano do jogo antes de inventar movimentos melhores por conta própria, tudo no espaço de três dias.

Batizado de AlphaGo Zero, o programa de IA foi saudado como um grande avanço porque dominou o antigo jogo de tabuleiro chinês a partir do zero, e sem ajuda humana além de ouvir as regras. Nos jogos contra a versão de 2015, que venceu Lee Sedol, o grande mestre sul-coreano, no ano seguinte, AlphaGo Zero venceu por 100 a 0.

O feito marca um marco na estrada para IAs de uso geral que podem fazer mais do que destruir humanos em jogos de tabuleiro. Como AlphaGo Zero aprende sozinho com uma folha em branco, seus talentos agora podem ser direcionados para uma série de problemas do mundo real.

Na DeepMind, com sede em Londres, AlphaGo Zero está descobrindo como as proteínas se dobram, um enorme desafio científico que pode dar à descoberta de medicamentos uma injeção extremamente necessária.

Jogo 3 de AlphaGo vs Lee Sedol em março de 2016. Fotografia: Erikbenson

“Para nós, AlphaGo não era apenas vencer o jogo Go”, disse Demis Hassabis, CEO da DeepMind e pesquisador da equipe. “Também foi um grande passo para nós no sentido de construir esses algoritmos de uso geral.” A maioria das IAs são descritas como “estreitas” porque realizam apenas uma única tarefa, como traduzir idiomas ou reconhecer rostos, mas as IAs de uso geral podem superar os humanos em muitas tarefas diferentes. Na próxima década, Hassabis acredita que os descendentes de AlphaGo trabalharão ao lado de humanos como especialistas científicos e médicos.

As versões anteriores do AlphaGo aprenderam seus movimentos treinando em milhares de jogos jogados por fortes amadores e profissionais humanos. AlphaGo Zero não teve essa ajuda. Em vez disso, aprendeu puramente jogando a si mesmo milhões de vezes. Começou colocando pedras no tabuleiro de Go aleatoriamente, mas melhorou rapidamente à medida que descobria estratégias de vitória.

David Silver descreve como o programa Go playing AI, AlphaGo Zero, descobre novos conhecimentos a partir do zero. Crédito: DeepMind

“É mais poderoso do que as abordagens anteriores porque, ao não usar dados humanos ou experiência humana de qualquer forma, removemos as restrições do conhecimento humano e ele é capaz de criar o próprio conhecimento”, disse David Silver, pesquisador-chefe da AlphaGo.

O programa acumula suas habilidades por meio de um procedimento chamado aprendizado por reforço. É o mesmo método pelo qual o equilíbrio de um lado e os joelhos arranhados do outro ajudam os humanos a dominar a arte de andar de bicicleta. Quando AlphaGo Zero faz uma boa jogada, é mais provável que seja recompensado com uma vitória. Quando faz um movimento ruim, chega perto de uma perda.

Demis Hassabis, CEO da DeepMind: ‘Para nós, AlphaGo não se limitava a ganhar o jogo Go.’ Fotografia: DeepMind / Nature

No centro do programa está um grupo de “neurônios” de software que são conectados para formar uma rede neural artificial. Para cada jogada do jogo, a rede analisa as posições das peças no tabuleiro de Go e calcula quais movimentos podem ser feitos a seguir e a probabilidade deles levarem à vitória. Após cada jogo, ele atualiza sua rede neural, tornando-se um jogador mais forte para a próxima luta. Embora muito melhor do que as versões anteriores, AlphaGo Zero é um programa mais simples e domina o jogo mais rapidamente, apesar de treinar com menos dados e rodar em um computador menor. Com mais tempo, poderia ter aprendido as regras por si mesmo também, disse Silver.

O que é IA?

A Inteligência Artificial tem várias definições, mas em geral significa um programa que usa dados para construir um modelo de algum aspecto do mundo. Este modelo é então usado para tomar decisões informadas e previsões sobre eventos futuros. A tecnologia é amplamente utilizada para fornecer reconhecimento de voz e rosto, tradução de idiomas e recomendações pessoais sobre músicas, filmes e sites de compras. No futuro, ele poderá fornecer carros sem motorista, assistentes pessoais inteligentes e redes de energia inteligentes. A IA tem o potencial de tornar as organizações mais eficazes e eficientes, mas a tecnologia levanta sérias questões de ética, governança, privacidade e lei.

Escrevendo na revista Nature, os pesquisadores descrevem como AlphaGo Zero começou terrivelmente, progrediu para o nível de um amador ingênuo e, finalmente, implantou movimentos altamente estratégicos usados ​​por grandes mestres, tudo em questão de dias. Ele descobriu uma peça comum, chamada de Joseki, nas primeiras 10 horas. Outros movimentos, com nomes como "pequena avalanche" e "pinça de movimento do cavaleiro" logo se seguiram. Depois de três dias, o programa descobriu novos movimentos que especialistas humanos estão estudando agora. Curiosamente, o programa compreendeu alguns movimentos avançados muito antes de descobrir outros mais simples, como um padrão chamado escada que os jogadores humanos de Go tendem a entender desde o início.

Este artigo inclui conteúdo hospedado em gfycat.com. Pedimos sua permissão antes de qualquer coisa ser carregada, pois o provedor pode estar usando cookies e outras tecnologias. Para ver este conteúdo, clique em & # x27Permitir e continuar & # x27.

“Ele descobre algumas das melhores jogadas, josekis, e então vai além dessas jogadas e encontra algo ainda melhor”, disse Hassabis. “Você pode ver isso redescobrindo milhares de anos de conhecimento humano.”

Eleni Vasilaki, professora de neurociência computacional da Sheffield University, disse que foi um feito impressionante. “Isso pode muito bem significar que, ao não envolver um especialista humano em seu treinamento, AlphaGo descobre movimentos melhores que ultrapassam a inteligência humana neste jogo específico”, disse ela. Mas ela apontou que, embora os computadores estejam derrotando os humanos em jogos que envolvem cálculos complexos e precisão, eles estão longe de igualar os humanos em outras tarefas. “A IA falha em tarefas que são surpreendentemente fáceis para os humanos”, disse ela. “Basta olhar para o desempenho de um robô humanóide nas tarefas diárias, como caminhar, correr e chutar uma bola.”

Tom Mitchell, um cientista da computação da Carnegie Mellon University em Pittsburgh, chamou o AlphaGo Zero de uma “realização notável da engenharia”. Ele acrescentou: “Isso fecha o livro sobre se os humanos algum dia irão se equiparar aos computadores da Go. Acho que a resposta é não. Mas abre um novo livro, onde os computadores ensinam os humanos a jogar Go melhor do que antes. ”

David Silver descreve como o programa de IA AlphaGo Zero aprende a jogar Go. Crédito: DeepMind


& # x27É & # x27 capaz de criar o próprio conhecimento & # x27: o Google revela a IA que aprende por conta própria

AlphaGo Zero venceu seu antecessor de 2015, que venceu o grande mestre Lee Sedol, 100 jogos de Go to 0.

AlphaGo Zero venceu seu antecessor de 2015, que venceu o grande mestre Lee Sedol, 100 jogos de Go to 0.

Em um grande avanço para a inteligência artificial, AlphaGo Zero levou apenas três dias para dominar o antigo jogo de tabuleiro chinês Go. sem ajuda humana

Última modificação em Quarta, 14 de fevereiro de 2018, 21,10 GMT

O grupo de inteligência artificial do Google, DeepMind, revelou a mais recente encarnação de seu programa Go-playing, AlphaGo - uma IA tão poderosa que derivou milhares de anos de conhecimento humano do jogo antes de inventar movimentos melhores por conta própria, tudo no espaço de três dias.

Batizado de AlphaGo Zero, o programa de IA foi saudado como um grande avanço porque dominou o antigo jogo de tabuleiro chinês a partir do zero, e sem ajuda humana além de ouvir as regras. Nos jogos contra a versão de 2015, que venceu Lee Sedol, o grande mestre sul-coreano, no ano seguinte, AlphaGo Zero venceu por 100 a 0.

O feito marca um marco na estrada para IAs de uso geral que podem fazer mais do que destruir humanos em jogos de tabuleiro. Como AlphaGo Zero aprende sozinho com uma folha em branco, seus talentos agora podem ser direcionados para uma série de problemas do mundo real.

Na DeepMind, com sede em Londres, AlphaGo Zero está descobrindo como as proteínas se dobram, um enorme desafio científico que poderia dar à descoberta de medicamentos uma injeção extremamente necessária.

Jogo 3 de AlphaGo vs Lee Sedol em março de 2016. Fotografia: Erikbenson

“Para nós, AlphaGo não era apenas vencer o jogo Go”, disse Demis Hassabis, CEO da DeepMind e pesquisador da equipe. “Também foi um grande passo para nós no sentido de construir esses algoritmos de uso geral.” A maioria das IAs são descritas como “estreitas” porque realizam apenas uma única tarefa, como traduzir idiomas ou reconhecer rostos, mas as IAs de uso geral podem superar os humanos em muitas tarefas diferentes. Na próxima década, Hassabis acredita que os descendentes de AlphaGo trabalharão ao lado de humanos como especialistas científicos e médicos.

As versões anteriores do AlphaGo aprenderam seus movimentos treinando em milhares de jogos jogados por fortes amadores e profissionais humanos. AlphaGo Zero não teve essa ajuda. Em vez disso, aprendeu puramente jogando a si mesmo milhões de vezes. Ele começou colocando pedras no tabuleiro de Go aleatoriamente, mas melhorou rapidamente à medida que descobria estratégias de vitória.

David Silver descreve como o programa Go playing AI, AlphaGo Zero, descobre novos conhecimentos a partir do zero. Crédito: DeepMind

“É mais poderoso do que as abordagens anteriores porque, ao não usar dados humanos ou experiência humana de qualquer forma, removemos as restrições do conhecimento humano e ele é capaz de criar o próprio conhecimento”, disse David Silver, pesquisador-chefe da AlphaGo.

O programa acumula suas habilidades por meio de um procedimento chamado aprendizado por reforço. É o mesmo método pelo qual o equilíbrio de um lado e os joelhos arranhados do outro ajudam os humanos a dominar a arte de andar de bicicleta. Quando AlphaGo Zero faz uma boa jogada, é mais provável que seja recompensado com uma vitória. Quando faz um movimento ruim, chega perto de uma perda.

Demis Hassabis, CEO da DeepMind: ‘Para nós, AlphaGo não se limitava a ganhar o jogo Go.’ Fotografia: DeepMind / Nature

No centro do programa está um grupo de “neurônios” de software que são conectados para formar uma rede neural artificial. Para cada jogada do jogo, a rede analisa as posições das peças no tabuleiro de Go e calcula quais movimentos podem ser feitos a seguir e a probabilidade deles levarem à vitória. Após cada jogo, ele atualiza sua rede neural, tornando-se um jogador mais forte para a próxima luta. Embora muito melhor do que as versões anteriores, AlphaGo Zero é um programa mais simples e domina o jogo mais rapidamente, apesar de treinar com menos dados e rodar em um computador menor. Com mais tempo, poderia ter aprendido as regras por si mesmo também, disse Silver.

O que é IA?

A Inteligência Artificial tem várias definições, mas em geral significa um programa que usa dados para construir um modelo de algum aspecto do mundo. Este modelo é então usado para tomar decisões informadas e previsões sobre eventos futuros. A tecnologia é amplamente utilizada para fornecer reconhecimento de voz e rosto, tradução de idiomas e recomendações pessoais sobre músicas, filmes e sites de compras. No futuro, ele poderá fornecer carros sem motorista, assistentes pessoais inteligentes e redes de energia inteligentes. A IA tem o potencial de tornar as organizações mais eficazes e eficientes, mas a tecnologia levanta sérias questões de ética, governança, privacidade e lei.

Escrevendo na revista Nature, os pesquisadores descrevem como AlphaGo Zero começou terrivelmente, progrediu para o nível de um amador ingênuo e, finalmente, implantou movimentos altamente estratégicos usados ​​por grandes mestres, tudo em questão de dias. Ele descobriu uma peça comum, chamada de Joseki, nas primeiras 10 horas. Outros movimentos, com nomes como "pequena avalanche" e "pinça de movimento do cavaleiro" logo se seguiram. Depois de três dias, o programa descobriu novos movimentos que especialistas humanos estão estudando agora. Curiosamente, o programa compreendeu alguns movimentos avançados muito antes de descobrir outros mais simples, como um padrão chamado escada que os jogadores humanos de Go tendem a entender desde o início.

Este artigo inclui conteúdo hospedado em gfycat.com. Pedimos sua permissão antes de qualquer coisa ser carregada, pois o provedor pode estar usando cookies e outras tecnologias. Para ver este conteúdo, clique em & # x27Permitir e continuar & # x27.

“Ele descobre algumas das melhores jogadas, josekis, e então vai além dessas jogadas e encontra algo ainda melhor”, disse Hassabis. “Você pode ver isso redescobrindo milhares de anos de conhecimento humano.”

Eleni Vasilaki, professora de neurociência computacional da Sheffield University, disse que foi um feito impressionante. “Isso pode muito bem significar que, ao não envolver um especialista humano em seu treinamento, AlphaGo descobre movimentos melhores que ultrapassam a inteligência humana neste jogo específico”, disse ela. Mas ela apontou que, embora os computadores estejam derrotando os humanos em jogos que envolvem cálculos complexos e precisão, eles estão longe de igualar os humanos em outras tarefas. “A IA falha em tarefas que são surpreendentemente fáceis para os humanos”, disse ela. “Basta olhar para o desempenho de um robô humanóide em tarefas cotidianas, como caminhar, correr e chutar uma bola.”

Tom Mitchell, um cientista da computação da Carnegie Mellon University em Pittsburgh, chamou o AlphaGo Zero de uma “realização notável da engenharia”. Ele acrescentou: “Isso fecha o livro sobre se os humanos algum dia irão se equiparar aos computadores da Go. Acho que a resposta é não. Mas abre um novo livro, onde os computadores ensinam os humanos a jogar Go melhor do que antes. ”

David Silver descreve como o programa de IA AlphaGo Zero aprende a jogar Go. Crédito: DeepMind


& # x27É & # x27 capaz de criar o próprio conhecimento & # x27: o Google revela a IA que aprende por conta própria

AlphaGo Zero venceu seu predecessor de 2015, que venceu o grande mestre Lee Sedol, 100 jogos de Go to 0.

AlphaGo Zero venceu seu antecessor de 2015, que venceu o grande mestre Lee Sedol, 100 jogos de Go to 0.

Em um grande avanço para a inteligência artificial, AlphaGo Zero levou apenas três dias para dominar o antigo jogo de tabuleiro chinês Go. sem ajuda humana

Última modificação em Quarta, 14 de fevereiro de 2018, 21,10 GMT

O grupo de inteligência artificial do Google, DeepMind, revelou a mais recente encarnação de seu programa Go-playing, AlphaGo - uma IA tão poderosa que derivou milhares de anos de conhecimento humano do jogo antes de inventar movimentos melhores por conta própria, tudo no espaço de três dias.

Batizado de AlphaGo Zero, o programa de IA foi saudado como um grande avanço porque dominou o antigo jogo de tabuleiro chinês a partir do zero, e sem ajuda humana além de ouvir as regras. Nos jogos contra a versão de 2015, que venceu Lee Sedol, o grande mestre sul-coreano, no ano seguinte, AlphaGo Zero venceu por 100 a 0.

O feito marca um marco na estrada para IAs de uso geral que podem fazer mais do que destruir humanos em jogos de tabuleiro. Como AlphaGo Zero aprende sozinho com uma folha em branco, seus talentos agora podem ser direcionados para uma série de problemas do mundo real.

Na DeepMind, com sede em Londres, AlphaGo Zero está descobrindo como as proteínas se dobram, um enorme desafio científico que poderia dar à descoberta de medicamentos uma injeção extremamente necessária.

Jogo 3 de AlphaGo vs Lee Sedol em março de 2016. Fotografia: Erikbenson

“Para nós, AlphaGo não era apenas vencer o jogo Go”, disse Demis Hassabis, CEO da DeepMind e pesquisador da equipe. “Também foi um grande passo para nós no sentido de construir esses algoritmos de uso geral.” A maioria das IAs são descritas como “estreitas” porque realizam apenas uma única tarefa, como traduzir idiomas ou reconhecer rostos, mas as IAs de uso geral podem superar os humanos em muitas tarefas diferentes. Na próxima década, Hassabis acredita que os descendentes de AlphaGo trabalharão ao lado de humanos como especialistas científicos e médicos.

As versões anteriores do AlphaGo aprenderam seus movimentos treinando em milhares de jogos jogados por fortes amadores e profissionais humanos. AlphaGo Zero não teve essa ajuda. Em vez disso, aprendeu puramente jogando a si mesmo milhões de vezes. Ele começou colocando pedras no tabuleiro de Go aleatoriamente, mas melhorou rapidamente à medida que descobria estratégias de vitória.

David Silver descreve como o programa Go playing AI, AlphaGo Zero, descobre novos conhecimentos a partir do zero. Crédito: DeepMind

“É mais poderoso do que as abordagens anteriores porque, ao não usar dados humanos ou experiência humana de qualquer forma, removemos as restrições do conhecimento humano e ele é capaz de criar o próprio conhecimento”, disse David Silver, pesquisador-chefe da AlphaGo.

O programa acumula suas habilidades por meio de um procedimento chamado aprendizado por reforço. É o mesmo método pelo qual o equilíbrio de um lado e os joelhos arranhados do outro ajudam os humanos a dominar a arte de andar de bicicleta. Quando AlphaGo Zero faz uma boa jogada, é mais provável que seja recompensado com uma vitória. Quando faz um movimento ruim, chega perto de uma perda.

Demis Hassabis, CEO da DeepMind: ‘Para nós, AlphaGo não se limitava a ganhar o jogo Go.’ Fotografia: DeepMind / Nature

No centro do programa está um grupo de “neurônios” de software que são conectados para formar uma rede neural artificial. Para cada jogada do jogo, a rede analisa as posições das peças no tabuleiro de Go e calcula quais movimentos podem ser feitos a seguir e a probabilidade deles levarem à vitória. Após cada jogo, ele atualiza sua rede neural, tornando-se um jogador mais forte para a próxima luta. Embora muito melhor do que as versões anteriores, AlphaGo Zero é um programa mais simples e dominou o jogo mais rápido, apesar de treinar com menos dados e rodar em um computador menor. Com mais tempo, poderia ter aprendido as regras por si mesmo também, disse Silver.

O que é IA?

A Inteligência Artificial tem várias definições, mas em geral significa um programa que usa dados para construir um modelo de algum aspecto do mundo. Este modelo é então usado para tomar decisões informadas e previsões sobre eventos futuros. A tecnologia é amplamente utilizada para fornecer reconhecimento de voz e rosto, tradução de idiomas e recomendações pessoais sobre músicas, filmes e sites de compras. No futuro, ele poderá fornecer carros sem motorista, assistentes pessoais inteligentes e redes de energia inteligentes. A IA tem o potencial de tornar as organizações mais eficazes e eficientes, mas a tecnologia levanta sérias questões de ética, governança, privacidade e lei.

Escrevendo na revista Nature, os pesquisadores descrevem como AlphaGo Zero começou terrivelmente, progrediu para o nível de um amador ingênuo e, finalmente, implantou movimentos altamente estratégicos usados ​​por grandes mestres, tudo em questão de dias. Ele descobriu uma peça comum, chamada de Joseki, nas primeiras 10 horas. Outros movimentos, com nomes como "pequena avalanche" e "pinça de movimento do cavaleiro" logo se seguiram. Depois de três dias, o programa descobriu novos movimentos que especialistas humanos estão estudando agora. Curiosamente, o programa compreendeu alguns movimentos avançados muito antes de descobrir outros mais simples, como um padrão chamado escada que os jogadores humanos de Go tendem a entender desde o início.

Este artigo inclui conteúdo hospedado em gfycat.com. Pedimos sua permissão antes de qualquer coisa ser carregada, pois o provedor pode estar usando cookies e outras tecnologias. Para ver este conteúdo, clique em & # x27Permitir e continuar & # x27.

“Ele descobre algumas das melhores jogadas, josekis, e então vai além dessas jogadas e encontra algo ainda melhor”, disse Hassabis. “Você pode ver isso redescobrindo milhares de anos de conhecimento humano.”

Eleni Vasilaki, professora de neurociência computacional da Sheffield University, disse que foi um feito impressionante. “Isso pode muito bem significar que, ao não envolver um especialista humano em seu treinamento, AlphaGo descobre movimentos melhores que ultrapassam a inteligência humana neste jogo específico”, disse ela. Mas ela apontou que, embora os computadores estejam derrotando os humanos em jogos que envolvem cálculos complexos e precisão, eles estão longe de igualar os humanos em outras tarefas. “A IA falha em tarefas que são surpreendentemente fáceis para os humanos”, disse ela. “Basta olhar para o desempenho de um robô humanóide nas tarefas diárias, como caminhar, correr e chutar uma bola.”

Tom Mitchell, um cientista da computação da Carnegie Mellon University em Pittsburgh, chamou o AlphaGo Zero de uma “realização notável da engenharia”. Ele acrescentou: “Isso fecha o livro sobre se os humanos algum dia irão se equiparar aos computadores da Go. Acho que a resposta é não. Mas abre um novo livro, onde os computadores ensinam os humanos a jogar Go melhor do que antes. ”

David Silver descreve como o programa de IA AlphaGo Zero aprende a jogar Go. Crédito: DeepMind


& # x27É & # x27 capaz de criar o próprio conhecimento & # x27: o Google revela a IA que aprende por conta própria

AlphaGo Zero venceu seu antecessor de 2015, que venceu o grande mestre Lee Sedol, 100 jogos de Go to 0.

AlphaGo Zero venceu seu antecessor de 2015, que venceu o grande mestre Lee Sedol, 100 jogos de Go to 0.

Em um grande avanço para a inteligência artificial, AlphaGo Zero levou apenas três dias para dominar o antigo jogo de tabuleiro chinês Go. sem ajuda humana

Última modificação em Quarta, 14 de fevereiro de 2018, 21,10 GMT

O grupo de inteligência artificial do Google, DeepMind, revelou a mais recente encarnação de seu programa Go-playing, AlphaGo - uma IA tão poderosa que derivou milhares de anos de conhecimento humano do jogo antes de inventar movimentos melhores por conta própria, tudo no espaço de três dias.

Batizado de AlphaGo Zero, o programa de IA foi saudado como um grande avanço porque dominou o antigo jogo de tabuleiro chinês a partir do zero, e sem ajuda humana além de ouvir as regras. Nos jogos contra a versão de 2015, que venceu Lee Sedol, o grande mestre sul-coreano, no ano seguinte, AlphaGo Zero venceu por 100 a 0.

O feito marca um marco na estrada para IAs de uso geral que podem fazer mais do que destruir humanos em jogos de tabuleiro. Como AlphaGo Zero aprende sozinho com uma folha em branco, seus talentos agora podem ser direcionados para uma série de problemas do mundo real.

Na DeepMind, com sede em Londres, AlphaGo Zero está descobrindo como as proteínas se dobram, um enorme desafio científico que poderia dar à descoberta de medicamentos uma injeção extremamente necessária.

Jogo 3 de AlphaGo vs Lee Sedol em março de 2016. Fotografia: Erikbenson

“Para nós, AlphaGo não era apenas vencer o jogo Go”, disse Demis Hassabis, CEO da DeepMind e pesquisador da equipe. “Também foi um grande passo para nós no sentido de construir esses algoritmos de uso geral.” A maioria das IAs são descritas como “estreitas” porque realizam apenas uma única tarefa, como traduzir idiomas ou reconhecer rostos, mas as IAs de uso geral podem superar os humanos em muitas tarefas diferentes. Na próxima década, Hassabis acredita que os descendentes de AlphaGo trabalharão ao lado de humanos como especialistas científicos e médicos.

As versões anteriores do AlphaGo aprenderam seus movimentos treinando em milhares de jogos jogados por fortes amadores e profissionais humanos. AlphaGo Zero não teve essa ajuda. Em vez disso, aprendeu puramente jogando a si mesmo milhões de vezes. Começou colocando pedras no tabuleiro de Go aleatoriamente, mas melhorou rapidamente à medida que descobria estratégias de vitória.

David Silver descreve como o programa Go playing AI, AlphaGo Zero, descobre novos conhecimentos a partir do zero. Crédito: DeepMind

“É mais poderoso do que as abordagens anteriores porque, ao não usar dados humanos ou experiência humana de qualquer forma, removemos as restrições do conhecimento humano e ele é capaz de criar o próprio conhecimento”, disse David Silver, pesquisador-chefe da AlphaGo.

O programa acumula suas habilidades por meio de um procedimento chamado aprendizado por reforço. É o mesmo método pelo qual o equilíbrio de um lado e os joelhos arranhados do outro ajudam os humanos a dominar a arte de andar de bicicleta. Quando AlphaGo Zero faz uma boa jogada, é mais provável que seja recompensado com uma vitória. Quando faz um movimento ruim, chega perto de uma perda.

Demis Hassabis, CEO da DeepMind: ‘Para nós, AlphaGo não se limitava a ganhar o jogo Go.’ Fotografia: DeepMind / Nature

No centro do programa está um grupo de “neurônios” de software que são conectados para formar uma rede neural artificial. Para cada jogada do jogo, a rede analisa as posições das peças no tabuleiro de Go e calcula quais movimentos podem ser feitos a seguir e a probabilidade de eles levarem à vitória. Após cada jogo, ele atualiza sua rede neural, tornando-se um jogador mais forte para a próxima luta. Embora muito melhor do que as versões anteriores, AlphaGo Zero é um programa mais simples e domina o jogo mais rapidamente, apesar de treinar com menos dados e rodar em um computador menor. Com mais tempo, poderia ter aprendido as regras por si mesmo também, disse Silver.

O que é IA?

A Inteligência Artificial tem várias definições, mas em geral significa um programa que usa dados para construir um modelo de algum aspecto do mundo. Este modelo é então usado para tomar decisões informadas e previsões sobre eventos futuros. A tecnologia é amplamente utilizada para fornecer reconhecimento de voz e rosto, tradução de idiomas e recomendações pessoais sobre músicas, filmes e sites de compras. No futuro, ele poderá fornecer carros sem motorista, assistentes pessoais inteligentes e redes de energia inteligentes. A IA tem o potencial de tornar as organizações mais eficazes e eficientes, mas a tecnologia levanta sérias questões de ética, governança, privacidade e lei.

Escrevendo na revista Nature, os pesquisadores descrevem como AlphaGo Zero começou terrivelmente, progrediu para o nível de um amador ingênuo e, finalmente, implantou movimentos altamente estratégicos usados ​​por grandes mestres, tudo em questão de dias. Ele descobriu uma peça comum, chamada de Joseki, nas primeiras 10 horas. Outros movimentos, com nomes como "pequena avalanche" e "pinça de movimento do cavaleiro" logo se seguiram. Depois de três dias, o programa descobriu novos movimentos que especialistas humanos estão estudando agora. Curiosamente, o programa compreendeu alguns movimentos avançados muito antes de descobrir outros mais simples, como um padrão chamado escada que os jogadores humanos de Go tendem a entender desde o início.

Este artigo inclui conteúdo hospedado em gfycat.com. Pedimos sua permissão antes de qualquer coisa ser carregada, pois o provedor pode estar usando cookies e outras tecnologias. Para ver este conteúdo, clique em & # x27Permitir e continuar & # x27.

“Ele descobre algumas das melhores jogadas, josekis, e então vai além dessas jogadas e encontra algo ainda melhor”, disse Hassabis. “Você pode ver isso redescobrindo milhares de anos de conhecimento humano.”

Eleni Vasilaki, professora de neurociência computacional na Sheffield University, disse que foi um feito impressionante. “Isso pode muito bem significar que, por não envolver um especialista humano em seu treinamento, AlphaGo descobre movimentos melhores que ultrapassam a inteligência humana neste jogo específico”, disse ela. Mas ela ressaltou que, embora os computadores estejam derrotando os humanos em jogos que envolvem cálculos complexos e precisão, eles estão longe de igualar os humanos em outras tarefas. “A IA falha em tarefas que são surpreendentemente fáceis para os humanos”, disse ela. “Basta olhar para o desempenho de um robô humanóide nas tarefas diárias, como caminhar, correr e chutar uma bola.”

Tom Mitchell, um cientista da computação da Carnegie Mellon University em Pittsburgh, chamou o AlphaGo Zero de uma “realização notável da engenharia”. Ele acrescentou: “Isso fecha o livro sobre se os humanos algum dia vão se equiparar aos computadores da Go. Acho que a resposta é não. Mas abre um novo livro, onde os computadores ensinam os humanos a jogar Go melhor do que antes. ”

David Silver descreve como o programa de IA AlphaGo Zero aprende a jogar Go. Crédito: DeepMind


& # x27É & # x27 capaz de criar o próprio conhecimento & # x27: o Google revela a IA que aprende por conta própria

AlphaGo Zero venceu seu predecessor de 2015, que venceu o grande mestre Lee Sedol, 100 jogos de Go to 0.

AlphaGo Zero venceu seu antecessor de 2015, que venceu o grande mestre Lee Sedol, 100 jogos de Go to 0.

Em um grande avanço para a inteligência artificial, AlphaGo Zero levou apenas três dias para dominar o antigo jogo de tabuleiro chinês Go. sem ajuda humana

Última modificação em Quarta, 14 de fevereiro de 2018, 21,10 GMT

O grupo de inteligência artificial do Google, DeepMind, revelou a mais recente encarnação de seu programa Go-playing, AlphaGo - uma IA tão poderosa que derivou milhares de anos de conhecimento humano do jogo antes de inventar movimentos melhores por conta própria, tudo no espaço de três dias.

Batizado de AlphaGo Zero, o programa de IA foi saudado como um grande avanço porque dominou o antigo jogo de tabuleiro chinês a partir do zero, e sem ajuda humana além de ouvir as regras. Nos jogos contra a versão de 2015, que venceu Lee Sedol, o grande mestre sul-coreano, no ano seguinte, AlphaGo Zero venceu por 100 a 0.

The feat marks a milestone on the road to general-purpose AIs that can do more than thrash humans at board games. Because AlphaGo Zero learns on its own from a blank slate, its talents can now be turned to a host of real-world problems.

At DeepMind, which is based in London, AlphaGo Zero is working out how proteins fold, a massive scientific challenge that could give drug discovery a sorely needed shot in the arm.

Match 3 of AlphaGo vs Lee Sedol in March 2016. Photograph: Erikbenson

“For us, AlphaGo wasn’t just about winning the game of Go,” said Demis Hassabis, CEO of DeepMind and a researcher on the team. “It was also a big step for us towards building these general-purpose algorithms.” Most AIs are described as “narrow” because they perform only a single task, such as translating languages or recognising faces, but general-purpose AIs could potentially outperform humans at many different tasks. In the next decade, Hassabis believes that AlphaGo’s descendants will work alongside humans as scientific and medical experts.

Previous versions of AlphaGo learned their moves by training on thousands of games played by strong human amateurs and professionals. AlphaGo Zero had no such help. Instead, it learned purely by playing itself millions of times over. It began by placing stones on the Go board at random but swiftly improved as it discovered winning strategies.

David Silver describes how the Go playing AI program, AlphaGo Zero, discovers new knowledge from scratch. Credit: DeepMind

“It’s more powerful than previous approaches because by not using human data, or human expertise in any fashion, we’ve removed the constraints of human knowledge and it is able to create knowledge itself,” said David Silver, AlphaGo’s lead researcher.

The program amasses its skill through a procedure called reinforcement learning. It is the same method by which balance on the one hand, and scuffed knees on the other, help humans master the art of bike riding. When AlphaGo Zero plays a good move, it is more likely to be rewarded with a win. When it makes a bad move, it edges closer to a loss.

Demis Hassabis, CEO of DeepMind: ‘For us, AlphaGo wasn’t just about winning the game of Go.’ Photograph: DeepMind/Nature

At the heart of the program is a group of software “neurons” that are connected together to form an artificial neural network. For each turn of the game, the network looks at the positions of the pieces on the Go board and calculates which moves might be made next and probability of them leading to a win. After each game, it updates its neural network, making it stronger player for the next bout. Though far better than previous versions, AlphaGo Zero is a simpler program and mastered the game faster despite training on less data and running on a smaller computer. Given more time, it could have learned the rules for itself too, Silver said.

What is AI?

Artificial Intelligence has various definitions, but in general it means a program that uses data to build a model of some aspect of the world. This model is then used to make informed decisions and predictions about future events. The technology is used widely, to provide speech and face recognition, language translation, and personal recommendations on music, film and shopping sites. In the future, it could deliver driverless cars, smart personal assistants, and intelligent energy grids. AI has the potential to make organisations more effective and efficient, but the technology raises serious issues of ethics, governance, privacy and law.

Writing in the journal Nature, the researchers describe how AlphaGo Zero started off terribly, progressed to the level of a naive amateur, and ultimately deployed highly strategic moves used by grandmasters, all in a matter of days. It discovered one common play, called a joseki, in the first 10 hours. Other moves, with names such as “small avalanche” and “knight’s move pincer” soon followed. After three days, the program had discovered brand new moves that human experts are now studying. Intriguingly, the program grasped some advanced moves long before it discovered simpler ones, such as a pattern called a ladder that human Go players tend to grasp early on.

This article includes content hosted on gfycat.com . We ask for your permission before anything is loaded, as the provider may be using cookies and other technologies. To view this content, click ɺllow and continue'.

“It discovers some best plays, josekis, and then it goes beyond those plays and finds something even better,” said Hassabis. “You can see it rediscovering thousands of years of human knowledge.”

Eleni Vasilaki, professor of computational neuroscience at Sheffield University, said it was an impressive feat. “This may very well imply that by not involving a human expert in its training, AlphaGo discovers better moves that surpass human intelligence on this specific game,” she said. But she pointed out that, while computers are beating humans at games that involve complex calculations and precision, they are far from even matching humans at other tasks. “AI fails in tasks that are surprisingly easy for humans,” she said. “Just look at the performance of a humanoid robot in everyday tasks such as walking, running and kicking a ball.”

Tom Mitchell, a computer scientist at Carnegie Mellon University in Pittsburgh called AlphaGo Zero an “outstanding engineering accomplishment”. He added: “It closes the book on whether humans are ever going to catch up with computers at Go. I guess the answer is no. But it opens a new book, which is where computers teach humans how to play Go better than they used to.”

David Silver describes how the AI program AlphaGo Zero learns to play Go. Credit: DeepMind


'It's able to create knowledge itself': Google unveils AI that learns on its own

AlphaGo Zero beat its 2015 predecessor, which vanquished grandmaster Lee Sedol, 100 games of Go to 0.

AlphaGo Zero beat its 2015 predecessor, which vanquished grandmaster Lee Sedol, 100 games of Go to 0.

In a major breakthrough for artificial intelligence, AlphaGo Zero took just three days to master the ancient Chinese board game of Go . with no human help

Last modified on Wed 14 Feb 2018 21.10 GMT

Google’s artificial intelligence group, DeepMind, has unveiled the latest incarnation of its Go-playing program, AlphaGo – an AI so powerful that it derived thousands of years of human knowledge of the game before inventing better moves of its own, all in the space of three days.

Named AlphaGo Zero, the AI program has been hailed as a major advance because it mastered the ancient Chinese board game from scratch, and with no human help beyond being told the rules. In games against the 2015 version, which famously beat Lee Sedol, the South Korean grandmaster, in the following year, AlphaGo Zero won 100 to 0.

The feat marks a milestone on the road to general-purpose AIs that can do more than thrash humans at board games. Because AlphaGo Zero learns on its own from a blank slate, its talents can now be turned to a host of real-world problems.

At DeepMind, which is based in London, AlphaGo Zero is working out how proteins fold, a massive scientific challenge that could give drug discovery a sorely needed shot in the arm.

Match 3 of AlphaGo vs Lee Sedol in March 2016. Photograph: Erikbenson

“For us, AlphaGo wasn’t just about winning the game of Go,” said Demis Hassabis, CEO of DeepMind and a researcher on the team. “It was also a big step for us towards building these general-purpose algorithms.” Most AIs are described as “narrow” because they perform only a single task, such as translating languages or recognising faces, but general-purpose AIs could potentially outperform humans at many different tasks. In the next decade, Hassabis believes that AlphaGo’s descendants will work alongside humans as scientific and medical experts.

Previous versions of AlphaGo learned their moves by training on thousands of games played by strong human amateurs and professionals. AlphaGo Zero had no such help. Instead, it learned purely by playing itself millions of times over. It began by placing stones on the Go board at random but swiftly improved as it discovered winning strategies.

David Silver describes how the Go playing AI program, AlphaGo Zero, discovers new knowledge from scratch. Credit: DeepMind

“It’s more powerful than previous approaches because by not using human data, or human expertise in any fashion, we’ve removed the constraints of human knowledge and it is able to create knowledge itself,” said David Silver, AlphaGo’s lead researcher.

The program amasses its skill through a procedure called reinforcement learning. It is the same method by which balance on the one hand, and scuffed knees on the other, help humans master the art of bike riding. When AlphaGo Zero plays a good move, it is more likely to be rewarded with a win. When it makes a bad move, it edges closer to a loss.

Demis Hassabis, CEO of DeepMind: ‘For us, AlphaGo wasn’t just about winning the game of Go.’ Photograph: DeepMind/Nature

At the heart of the program is a group of software “neurons” that are connected together to form an artificial neural network. For each turn of the game, the network looks at the positions of the pieces on the Go board and calculates which moves might be made next and probability of them leading to a win. After each game, it updates its neural network, making it stronger player for the next bout. Though far better than previous versions, AlphaGo Zero is a simpler program and mastered the game faster despite training on less data and running on a smaller computer. Given more time, it could have learned the rules for itself too, Silver said.

What is AI?

Artificial Intelligence has various definitions, but in general it means a program that uses data to build a model of some aspect of the world. This model is then used to make informed decisions and predictions about future events. The technology is used widely, to provide speech and face recognition, language translation, and personal recommendations on music, film and shopping sites. In the future, it could deliver driverless cars, smart personal assistants, and intelligent energy grids. AI has the potential to make organisations more effective and efficient, but the technology raises serious issues of ethics, governance, privacy and law.

Writing in the journal Nature, the researchers describe how AlphaGo Zero started off terribly, progressed to the level of a naive amateur, and ultimately deployed highly strategic moves used by grandmasters, all in a matter of days. It discovered one common play, called a joseki, in the first 10 hours. Other moves, with names such as “small avalanche” and “knight’s move pincer” soon followed. After three days, the program had discovered brand new moves that human experts are now studying. Intriguingly, the program grasped some advanced moves long before it discovered simpler ones, such as a pattern called a ladder that human Go players tend to grasp early on.

This article includes content hosted on gfycat.com . We ask for your permission before anything is loaded, as the provider may be using cookies and other technologies. To view this content, click ɺllow and continue'.

“It discovers some best plays, josekis, and then it goes beyond those plays and finds something even better,” said Hassabis. “You can see it rediscovering thousands of years of human knowledge.”

Eleni Vasilaki, professor of computational neuroscience at Sheffield University, said it was an impressive feat. “This may very well imply that by not involving a human expert in its training, AlphaGo discovers better moves that surpass human intelligence on this specific game,” she said. But she pointed out that, while computers are beating humans at games that involve complex calculations and precision, they are far from even matching humans at other tasks. “AI fails in tasks that are surprisingly easy for humans,” she said. “Just look at the performance of a humanoid robot in everyday tasks such as walking, running and kicking a ball.”

Tom Mitchell, a computer scientist at Carnegie Mellon University in Pittsburgh called AlphaGo Zero an “outstanding engineering accomplishment”. He added: “It closes the book on whether humans are ever going to catch up with computers at Go. I guess the answer is no. But it opens a new book, which is where computers teach humans how to play Go better than they used to.”

David Silver describes how the AI program AlphaGo Zero learns to play Go. Credit: DeepMind


'It's able to create knowledge itself': Google unveils AI that learns on its own

AlphaGo Zero beat its 2015 predecessor, which vanquished grandmaster Lee Sedol, 100 games of Go to 0.

AlphaGo Zero beat its 2015 predecessor, which vanquished grandmaster Lee Sedol, 100 games of Go to 0.

In a major breakthrough for artificial intelligence, AlphaGo Zero took just three days to master the ancient Chinese board game of Go . with no human help

Last modified on Wed 14 Feb 2018 21.10 GMT

Google’s artificial intelligence group, DeepMind, has unveiled the latest incarnation of its Go-playing program, AlphaGo – an AI so powerful that it derived thousands of years of human knowledge of the game before inventing better moves of its own, all in the space of three days.

Named AlphaGo Zero, the AI program has been hailed as a major advance because it mastered the ancient Chinese board game from scratch, and with no human help beyond being told the rules. In games against the 2015 version, which famously beat Lee Sedol, the South Korean grandmaster, in the following year, AlphaGo Zero won 100 to 0.

The feat marks a milestone on the road to general-purpose AIs that can do more than thrash humans at board games. Because AlphaGo Zero learns on its own from a blank slate, its talents can now be turned to a host of real-world problems.

At DeepMind, which is based in London, AlphaGo Zero is working out how proteins fold, a massive scientific challenge that could give drug discovery a sorely needed shot in the arm.

Match 3 of AlphaGo vs Lee Sedol in March 2016. Photograph: Erikbenson

“For us, AlphaGo wasn’t just about winning the game of Go,” said Demis Hassabis, CEO of DeepMind and a researcher on the team. “It was also a big step for us towards building these general-purpose algorithms.” Most AIs are described as “narrow” because they perform only a single task, such as translating languages or recognising faces, but general-purpose AIs could potentially outperform humans at many different tasks. In the next decade, Hassabis believes that AlphaGo’s descendants will work alongside humans as scientific and medical experts.

Previous versions of AlphaGo learned their moves by training on thousands of games played by strong human amateurs and professionals. AlphaGo Zero had no such help. Instead, it learned purely by playing itself millions of times over. It began by placing stones on the Go board at random but swiftly improved as it discovered winning strategies.

David Silver describes how the Go playing AI program, AlphaGo Zero, discovers new knowledge from scratch. Credit: DeepMind

“It’s more powerful than previous approaches because by not using human data, or human expertise in any fashion, we’ve removed the constraints of human knowledge and it is able to create knowledge itself,” said David Silver, AlphaGo’s lead researcher.

The program amasses its skill through a procedure called reinforcement learning. It is the same method by which balance on the one hand, and scuffed knees on the other, help humans master the art of bike riding. When AlphaGo Zero plays a good move, it is more likely to be rewarded with a win. When it makes a bad move, it edges closer to a loss.

Demis Hassabis, CEO of DeepMind: ‘For us, AlphaGo wasn’t just about winning the game of Go.’ Photograph: DeepMind/Nature

At the heart of the program is a group of software “neurons” that are connected together to form an artificial neural network. For each turn of the game, the network looks at the positions of the pieces on the Go board and calculates which moves might be made next and probability of them leading to a win. After each game, it updates its neural network, making it stronger player for the next bout. Though far better than previous versions, AlphaGo Zero is a simpler program and mastered the game faster despite training on less data and running on a smaller computer. Given more time, it could have learned the rules for itself too, Silver said.

What is AI?

Artificial Intelligence has various definitions, but in general it means a program that uses data to build a model of some aspect of the world. This model is then used to make informed decisions and predictions about future events. The technology is used widely, to provide speech and face recognition, language translation, and personal recommendations on music, film and shopping sites. In the future, it could deliver driverless cars, smart personal assistants, and intelligent energy grids. AI has the potential to make organisations more effective and efficient, but the technology raises serious issues of ethics, governance, privacy and law.

Writing in the journal Nature, the researchers describe how AlphaGo Zero started off terribly, progressed to the level of a naive amateur, and ultimately deployed highly strategic moves used by grandmasters, all in a matter of days. It discovered one common play, called a joseki, in the first 10 hours. Other moves, with names such as “small avalanche” and “knight’s move pincer” soon followed. After three days, the program had discovered brand new moves that human experts are now studying. Intriguingly, the program grasped some advanced moves long before it discovered simpler ones, such as a pattern called a ladder that human Go players tend to grasp early on.

This article includes content hosted on gfycat.com . We ask for your permission before anything is loaded, as the provider may be using cookies and other technologies. To view this content, click ɺllow and continue'.

“It discovers some best plays, josekis, and then it goes beyond those plays and finds something even better,” said Hassabis. “You can see it rediscovering thousands of years of human knowledge.”

Eleni Vasilaki, professor of computational neuroscience at Sheffield University, said it was an impressive feat. “This may very well imply that by not involving a human expert in its training, AlphaGo discovers better moves that surpass human intelligence on this specific game,” she said. But she pointed out that, while computers are beating humans at games that involve complex calculations and precision, they are far from even matching humans at other tasks. “AI fails in tasks that are surprisingly easy for humans,” she said. “Just look at the performance of a humanoid robot in everyday tasks such as walking, running and kicking a ball.”

Tom Mitchell, a computer scientist at Carnegie Mellon University in Pittsburgh called AlphaGo Zero an “outstanding engineering accomplishment”. He added: “It closes the book on whether humans are ever going to catch up with computers at Go. I guess the answer is no. But it opens a new book, which is where computers teach humans how to play Go better than they used to.”

David Silver describes how the AI program AlphaGo Zero learns to play Go. Credit: DeepMind


'It's able to create knowledge itself': Google unveils AI that learns on its own

AlphaGo Zero beat its 2015 predecessor, which vanquished grandmaster Lee Sedol, 100 games of Go to 0.

AlphaGo Zero beat its 2015 predecessor, which vanquished grandmaster Lee Sedol, 100 games of Go to 0.

In a major breakthrough for artificial intelligence, AlphaGo Zero took just three days to master the ancient Chinese board game of Go . with no human help

Last modified on Wed 14 Feb 2018 21.10 GMT

Google’s artificial intelligence group, DeepMind, has unveiled the latest incarnation of its Go-playing program, AlphaGo – an AI so powerful that it derived thousands of years of human knowledge of the game before inventing better moves of its own, all in the space of three days.

Named AlphaGo Zero, the AI program has been hailed as a major advance because it mastered the ancient Chinese board game from scratch, and with no human help beyond being told the rules. In games against the 2015 version, which famously beat Lee Sedol, the South Korean grandmaster, in the following year, AlphaGo Zero won 100 to 0.

The feat marks a milestone on the road to general-purpose AIs that can do more than thrash humans at board games. Because AlphaGo Zero learns on its own from a blank slate, its talents can now be turned to a host of real-world problems.

At DeepMind, which is based in London, AlphaGo Zero is working out how proteins fold, a massive scientific challenge that could give drug discovery a sorely needed shot in the arm.

Match 3 of AlphaGo vs Lee Sedol in March 2016. Photograph: Erikbenson

“For us, AlphaGo wasn’t just about winning the game of Go,” said Demis Hassabis, CEO of DeepMind and a researcher on the team. “It was also a big step for us towards building these general-purpose algorithms.” Most AIs are described as “narrow” because they perform only a single task, such as translating languages or recognising faces, but general-purpose AIs could potentially outperform humans at many different tasks. In the next decade, Hassabis believes that AlphaGo’s descendants will work alongside humans as scientific and medical experts.

Previous versions of AlphaGo learned their moves by training on thousands of games played by strong human amateurs and professionals. AlphaGo Zero had no such help. Instead, it learned purely by playing itself millions of times over. It began by placing stones on the Go board at random but swiftly improved as it discovered winning strategies.

David Silver describes how the Go playing AI program, AlphaGo Zero, discovers new knowledge from scratch. Credit: DeepMind

“It’s more powerful than previous approaches because by not using human data, or human expertise in any fashion, we’ve removed the constraints of human knowledge and it is able to create knowledge itself,” said David Silver, AlphaGo’s lead researcher.

The program amasses its skill through a procedure called reinforcement learning. It is the same method by which balance on the one hand, and scuffed knees on the other, help humans master the art of bike riding. When AlphaGo Zero plays a good move, it is more likely to be rewarded with a win. When it makes a bad move, it edges closer to a loss.

Demis Hassabis, CEO of DeepMind: ‘For us, AlphaGo wasn’t just about winning the game of Go.’ Photograph: DeepMind/Nature

At the heart of the program is a group of software “neurons” that are connected together to form an artificial neural network. For each turn of the game, the network looks at the positions of the pieces on the Go board and calculates which moves might be made next and probability of them leading to a win. After each game, it updates its neural network, making it stronger player for the next bout. Though far better than previous versions, AlphaGo Zero is a simpler program and mastered the game faster despite training on less data and running on a smaller computer. Given more time, it could have learned the rules for itself too, Silver said.

What is AI?

Artificial Intelligence has various definitions, but in general it means a program that uses data to build a model of some aspect of the world. This model is then used to make informed decisions and predictions about future events. The technology is used widely, to provide speech and face recognition, language translation, and personal recommendations on music, film and shopping sites. In the future, it could deliver driverless cars, smart personal assistants, and intelligent energy grids. AI has the potential to make organisations more effective and efficient, but the technology raises serious issues of ethics, governance, privacy and law.

Writing in the journal Nature, the researchers describe how AlphaGo Zero started off terribly, progressed to the level of a naive amateur, and ultimately deployed highly strategic moves used by grandmasters, all in a matter of days. It discovered one common play, called a joseki, in the first 10 hours. Other moves, with names such as “small avalanche” and “knight’s move pincer” soon followed. After three days, the program had discovered brand new moves that human experts are now studying. Intriguingly, the program grasped some advanced moves long before it discovered simpler ones, such as a pattern called a ladder that human Go players tend to grasp early on.

This article includes content hosted on gfycat.com . We ask for your permission before anything is loaded, as the provider may be using cookies and other technologies. To view this content, click ɺllow and continue'.

“It discovers some best plays, josekis, and then it goes beyond those plays and finds something even better,” said Hassabis. “You can see it rediscovering thousands of years of human knowledge.”

Eleni Vasilaki, professor of computational neuroscience at Sheffield University, said it was an impressive feat. “This may very well imply that by not involving a human expert in its training, AlphaGo discovers better moves that surpass human intelligence on this specific game,” she said. But she pointed out that, while computers are beating humans at games that involve complex calculations and precision, they are far from even matching humans at other tasks. “AI fails in tasks that are surprisingly easy for humans,” she said. “Just look at the performance of a humanoid robot in everyday tasks such as walking, running and kicking a ball.”

Tom Mitchell, a computer scientist at Carnegie Mellon University in Pittsburgh called AlphaGo Zero an “outstanding engineering accomplishment”. He added: “It closes the book on whether humans are ever going to catch up with computers at Go. I guess the answer is no. But it opens a new book, which is where computers teach humans how to play Go better than they used to.”

David Silver describes how the AI program AlphaGo Zero learns to play Go. Credit: DeepMind


'It's able to create knowledge itself': Google unveils AI that learns on its own

AlphaGo Zero beat its 2015 predecessor, which vanquished grandmaster Lee Sedol, 100 games of Go to 0.

AlphaGo Zero beat its 2015 predecessor, which vanquished grandmaster Lee Sedol, 100 games of Go to 0.

In a major breakthrough for artificial intelligence, AlphaGo Zero took just three days to master the ancient Chinese board game of Go . with no human help

Last modified on Wed 14 Feb 2018 21.10 GMT

Google’s artificial intelligence group, DeepMind, has unveiled the latest incarnation of its Go-playing program, AlphaGo – an AI so powerful that it derived thousands of years of human knowledge of the game before inventing better moves of its own, all in the space of three days.

Named AlphaGo Zero, the AI program has been hailed as a major advance because it mastered the ancient Chinese board game from scratch, and with no human help beyond being told the rules. In games against the 2015 version, which famously beat Lee Sedol, the South Korean grandmaster, in the following year, AlphaGo Zero won 100 to 0.

The feat marks a milestone on the road to general-purpose AIs that can do more than thrash humans at board games. Because AlphaGo Zero learns on its own from a blank slate, its talents can now be turned to a host of real-world problems.

At DeepMind, which is based in London, AlphaGo Zero is working out how proteins fold, a massive scientific challenge that could give drug discovery a sorely needed shot in the arm.

Match 3 of AlphaGo vs Lee Sedol in March 2016. Photograph: Erikbenson

“For us, AlphaGo wasn’t just about winning the game of Go,” said Demis Hassabis, CEO of DeepMind and a researcher on the team. “It was also a big step for us towards building these general-purpose algorithms.” Most AIs are described as “narrow” because they perform only a single task, such as translating languages or recognising faces, but general-purpose AIs could potentially outperform humans at many different tasks. In the next decade, Hassabis believes that AlphaGo’s descendants will work alongside humans as scientific and medical experts.

Previous versions of AlphaGo learned their moves by training on thousands of games played by strong human amateurs and professionals. AlphaGo Zero had no such help. Instead, it learned purely by playing itself millions of times over. It began by placing stones on the Go board at random but swiftly improved as it discovered winning strategies.

David Silver describes how the Go playing AI program, AlphaGo Zero, discovers new knowledge from scratch. Credit: DeepMind

“It’s more powerful than previous approaches because by not using human data, or human expertise in any fashion, we’ve removed the constraints of human knowledge and it is able to create knowledge itself,” said David Silver, AlphaGo’s lead researcher.

The program amasses its skill through a procedure called reinforcement learning. It is the same method by which balance on the one hand, and scuffed knees on the other, help humans master the art of bike riding. When AlphaGo Zero plays a good move, it is more likely to be rewarded with a win. When it makes a bad move, it edges closer to a loss.

Demis Hassabis, CEO of DeepMind: ‘For us, AlphaGo wasn’t just about winning the game of Go.’ Photograph: DeepMind/Nature

At the heart of the program is a group of software “neurons” that are connected together to form an artificial neural network. For each turn of the game, the network looks at the positions of the pieces on the Go board and calculates which moves might be made next and probability of them leading to a win. After each game, it updates its neural network, making it stronger player for the next bout. Though far better than previous versions, AlphaGo Zero is a simpler program and mastered the game faster despite training on less data and running on a smaller computer. Given more time, it could have learned the rules for itself too, Silver said.

What is AI?

Artificial Intelligence has various definitions, but in general it means a program that uses data to build a model of some aspect of the world. This model is then used to make informed decisions and predictions about future events. The technology is used widely, to provide speech and face recognition, language translation, and personal recommendations on music, film and shopping sites. In the future, it could deliver driverless cars, smart personal assistants, and intelligent energy grids. AI has the potential to make organisations more effective and efficient, but the technology raises serious issues of ethics, governance, privacy and law.

Writing in the journal Nature, the researchers describe how AlphaGo Zero started off terribly, progressed to the level of a naive amateur, and ultimately deployed highly strategic moves used by grandmasters, all in a matter of days. It discovered one common play, called a joseki, in the first 10 hours. Other moves, with names such as “small avalanche” and “knight’s move pincer” soon followed. After three days, the program had discovered brand new moves that human experts are now studying. Intriguingly, the program grasped some advanced moves long before it discovered simpler ones, such as a pattern called a ladder that human Go players tend to grasp early on.

This article includes content hosted on gfycat.com . We ask for your permission before anything is loaded, as the provider may be using cookies and other technologies. To view this content, click ɺllow and continue'.

“It discovers some best plays, josekis, and then it goes beyond those plays and finds something even better,” said Hassabis. “You can see it rediscovering thousands of years of human knowledge.”

Eleni Vasilaki, professor of computational neuroscience at Sheffield University, said it was an impressive feat. “This may very well imply that by not involving a human expert in its training, AlphaGo discovers better moves that surpass human intelligence on this specific game,” she said. But she pointed out that, while computers are beating humans at games that involve complex calculations and precision, they are far from even matching humans at other tasks. “AI fails in tasks that are surprisingly easy for humans,” she said. “Just look at the performance of a humanoid robot in everyday tasks such as walking, running and kicking a ball.”

Tom Mitchell, a computer scientist at Carnegie Mellon University in Pittsburgh called AlphaGo Zero an “outstanding engineering accomplishment”. He added: “It closes the book on whether humans are ever going to catch up with computers at Go. I guess the answer is no. But it opens a new book, which is where computers teach humans how to play Go better than they used to.”

David Silver describes how the AI program AlphaGo Zero learns to play Go. Credit: DeepMind


'It's able to create knowledge itself': Google unveils AI that learns on its own

AlphaGo Zero beat its 2015 predecessor, which vanquished grandmaster Lee Sedol, 100 games of Go to 0.

AlphaGo Zero beat its 2015 predecessor, which vanquished grandmaster Lee Sedol, 100 games of Go to 0.

In a major breakthrough for artificial intelligence, AlphaGo Zero took just three days to master the ancient Chinese board game of Go . with no human help

Last modified on Wed 14 Feb 2018 21.10 GMT

Google’s artificial intelligence group, DeepMind, has unveiled the latest incarnation of its Go-playing program, AlphaGo – an AI so powerful that it derived thousands of years of human knowledge of the game before inventing better moves of its own, all in the space of three days.

Named AlphaGo Zero, the AI program has been hailed as a major advance because it mastered the ancient Chinese board game from scratch, and with no human help beyond being told the rules. In games against the 2015 version, which famously beat Lee Sedol, the South Korean grandmaster, in the following year, AlphaGo Zero won 100 to 0.

The feat marks a milestone on the road to general-purpose AIs that can do more than thrash humans at board games. Because AlphaGo Zero learns on its own from a blank slate, its talents can now be turned to a host of real-world problems.

At DeepMind, which is based in London, AlphaGo Zero is working out how proteins fold, a massive scientific challenge that could give drug discovery a sorely needed shot in the arm.

Match 3 of AlphaGo vs Lee Sedol in March 2016. Photograph: Erikbenson

“For us, AlphaGo wasn’t just about winning the game of Go,” said Demis Hassabis, CEO of DeepMind and a researcher on the team. “It was also a big step for us towards building these general-purpose algorithms.” Most AIs are described as “narrow” because they perform only a single task, such as translating languages or recognising faces, but general-purpose AIs could potentially outperform humans at many different tasks. In the next decade, Hassabis believes that AlphaGo’s descendants will work alongside humans as scientific and medical experts.

Previous versions of AlphaGo learned their moves by training on thousands of games played by strong human amateurs and professionals. AlphaGo Zero had no such help. Instead, it learned purely by playing itself millions of times over. It began by placing stones on the Go board at random but swiftly improved as it discovered winning strategies.

David Silver describes how the Go playing AI program, AlphaGo Zero, discovers new knowledge from scratch. Credit: DeepMind

“It’s more powerful than previous approaches because by not using human data, or human expertise in any fashion, we’ve removed the constraints of human knowledge and it is able to create knowledge itself,” said David Silver, AlphaGo’s lead researcher.

The program amasses its skill through a procedure called reinforcement learning. It is the same method by which balance on the one hand, and scuffed knees on the other, help humans master the art of bike riding. When AlphaGo Zero plays a good move, it is more likely to be rewarded with a win. When it makes a bad move, it edges closer to a loss.

Demis Hassabis, CEO of DeepMind: ‘For us, AlphaGo wasn’t just about winning the game of Go.’ Photograph: DeepMind/Nature

At the heart of the program is a group of software “neurons” that are connected together to form an artificial neural network. For each turn of the game, the network looks at the positions of the pieces on the Go board and calculates which moves might be made next and probability of them leading to a win. After each game, it updates its neural network, making it stronger player for the next bout. Though far better than previous versions, AlphaGo Zero is a simpler program and mastered the game faster despite training on less data and running on a smaller computer. Given more time, it could have learned the rules for itself too, Silver said.

What is AI?

Artificial Intelligence has various definitions, but in general it means a program that uses data to build a model of some aspect of the world. This model is then used to make informed decisions and predictions about future events. The technology is used widely, to provide speech and face recognition, language translation, and personal recommendations on music, film and shopping sites. In the future, it could deliver driverless cars, smart personal assistants, and intelligent energy grids. AI has the potential to make organisations more effective and efficient, but the technology raises serious issues of ethics, governance, privacy and law.

Writing in the journal Nature, the researchers describe how AlphaGo Zero started off terribly, progressed to the level of a naive amateur, and ultimately deployed highly strategic moves used by grandmasters, all in a matter of days. It discovered one common play, called a joseki, in the first 10 hours. Other moves, with names such as “small avalanche” and “knight’s move pincer” soon followed. After three days, the program had discovered brand new moves that human experts are now studying. Intriguingly, the program grasped some advanced moves long before it discovered simpler ones, such as a pattern called a ladder that human Go players tend to grasp early on.

This article includes content hosted on gfycat.com . We ask for your permission before anything is loaded, as the provider may be using cookies and other technologies. To view this content, click ɺllow and continue'.

“It discovers some best plays, josekis, and then it goes beyond those plays and finds something even better,” said Hassabis. “You can see it rediscovering thousands of years of human knowledge.”

Eleni Vasilaki, professor of computational neuroscience at Sheffield University, said it was an impressive feat. “This may very well imply that by not involving a human expert in its training, AlphaGo discovers better moves that surpass human intelligence on this specific game,” she said. But she pointed out that, while computers are beating humans at games that involve complex calculations and precision, they are far from even matching humans at other tasks. “AI fails in tasks that are surprisingly easy for humans,” she said. “Just look at the performance of a humanoid robot in everyday tasks such as walking, running and kicking a ball.”

Tom Mitchell, a computer scientist at Carnegie Mellon University in Pittsburgh called AlphaGo Zero an “outstanding engineering accomplishment”. He added: “It closes the book on whether humans are ever going to catch up with computers at Go. I guess the answer is no. But it opens a new book, which is where computers teach humans how to play Go better than they used to.”

David Silver describes how the AI program AlphaGo Zero learns to play Go. Credit: DeepMind


Assista o vídeo: Inteligência Artificial - 1 - Algoritmos de Busca - Introdução (Dezembro 2021).