Leemos, día si y día también, sobre la «futura» implementación de la AI (inteligencia artificial) en los buscadores. Pero poco se habla de la utilización de la AI para generar contenido.
Veremos quien llega antes, y más lejos, en esto de la inteligencia robotil.
Hoy en día la generación de contenido automatizado está aún en pañales. Aunque la irrupción de los feeds y la sindicación de contenidos ha hecho más sencillo reciclar información, estamos aún lejos de algo parecido a la AI.
Podemos crear webs que se alimentan de otras, que pueden organizar el contenido por categorías, que pueden subrayar la información más candente… pero todo ello no es más que un colage de información, no existe contenido único.
El día que se llegue a conseguir que un «robot», utilizando toda la información disponible en la red, redacte un texto que no pueda diferenciarse de la creada por un humano, estaremos en una etapa sumamente interesante (y peligrosa). Además, en términos de posicionamiento, quizás no haga falta llegar a conseguir engañar a un humano, bastaría con conseguir engañar a otro bot (el de los buscadores).
Imaginemos el robot, capaz de escribir millones de páginas al día con contenido único. Capaz de responder comentarios, capaz de mantener una web/blog de forma autónoma….
Veo el escenario y creo que muchos blogs (microhondas) serían muy fáciles de emular… veo la generalización/mejora de estos bots y lo que supondría para los buscadores actuales…. veo…
Hablaba de futuro, pero Quién me puede asegurar que no estén ya entre nosotros?….. :O
(***this post was generated by telendrobot 2.0***)
yo estoy pensando en eso desde hace tiempo y lleve algunos experimentos acabo tambien, los resultados fueron mas que buenos y con una tecnologia no muy dificil de crear.
google aun no es capaz de entender semanticamente el contenido y es muy facil enganiarlo. el unico problema surge cuando un tipo de dentro de google lee el contenido y se da cuenta de que no es escrito por un humano y te banean el sitio.
pero mientras tanto nadie me quita lo bailado! no se si se entiende…
Yo no quiero darme mucha publicidad, pero de hecho hace meses que en mi blog no muevo un dedo, todo lo hace mi Robot Emilio.
Siempre se puede usar al bot del buscador en nuestro beneficio. Al fin y al cabo no deja de ser un bot… xD
Me autocito:
«He tardado un poco en darme cuenta de que esto era una broma (en concreto, hasta que he llegado aquí), pero tengo disculpa: aunque no sea consciente de ello, el autor no iba tan desencaminado.»
Ya hay programas que hacen traducciones, y otros que hacen resúmenes. Con eso puedes sacar bastante contenido «original». El algoritmo es:
1. Resumo un artículo, por ejemplo, de la wikipedia (obtienes las frases con mas información pero en general no las modificas)
http://summarizer.shvoong.com/
2. Lo traduzco a otro idioma (A->B)
http://babelfish.altavista.com/tr
3. Lo traduzco de nuevo al original que es el que me interesa (B->A)
suele quedar un texto bastante distinto al original ( y poco inteligible). Si no quedas satisfecho porque sigue pareciendo una copia, puedes repetir los pasos 2 y 3 las veces necesarias.
Otra opicón es añadir los pasos:
2b. traduzco de B->C
2c. traduzco de C->B
utilizando un tercer idioma (C).
Con este método a un humano no le engañas (lo que queda al final es bastante patético) pero a un robot si. Y además puedes estar seguro que la información que has aportado al mundo es: ninguna. 😉
Me encantan tus gráficos. El dibujo del robot escribiendo es genial.
También me reí mucho con «el jardín de las putadas» y con el supuesto logo de «Ojo Book, a new chapter everi day». Te envidio. De dónde sacas tantas ideas? 😀
Al final lo importante no es que crea el bot de Google, sino los usuarios.
Leí en un prestigioso blog seo que Google esta acaparando demasiada información sobre nuestros sitios, sobretodo el comportamiento de los usuarios frente a este, asi que aunque engañemos al bot de turno, no servirá de mucho…
(hoy en día todavia es posible engañar al algoritmo y rascarle unos miles de visitas antes de ser banneados, veremos cuanto dura)
Desde luego el futuro pasa por autoridades y análisis del comportamiento del usuario frente a la inmensa cantidad de catos que tenemos enfrente de nuestros ojos. Es mi simple opinión
Sergio, no recordaba la broma del autoblogger 🙂
Los otros enlaces confirman que el robot ya debe de estar entre nosotros…
Emili, ese método es bastante rudimentario si no se le añade algo de inteligencia en el proceso.
De todos modos voy a hacer una prueba 😉
Carlinhos, normalmente mis post tienen como fuente de inspiración algún otro post en otro blog. Contra más lees más posibilidades de encontrar algo interesante.
Las imágenes casi siempre las busco una vez escrito el post… buscando y buscando siempre hay alguna que se adapta como un guante al post.
Para que un post guste, primero le ha de gustar a uno mismo…. hay veces que al terminar un post me sale una sonrisa. Esos son los posts que se que gustarán.
Ferran, los bots están creados por humanos, por lo tanto siempre habrá la posibilidad de crear otro para engañar al primero. Estoy de acuerdo en que la cosa cambia bastante si además de engañar al bot conseguimos engañar a los usuarios…..
Existen sistemas automatizados para crear un contenido que resulta difícil de leer, y claro el truco sería que un humano no sea capaz de distinguir que el texto fue creado por un robot.
En realidad no sería tan difícil. Hace unos años creé por aburrimiento un robot capaz de generar páginas de párrafos coherentes basado en una base de datos de expresiones comunes separadas en secciones interconectables.
Tras dos o 3 párrafos te dabas cuenta de que había algo raro en el texto porque las frases se empezaban a repetir y en general los párrafos no tenían continuidad, pero el concepto se puede extender con una base de datos más amplia y basando los párrafos en ideas copiadas de otros textos para establecer continuidad. Lo mismo se puede hacer para disparar el robot a contestar en foros y blogs copiando alguna idea del contenido o comentarios anteriores.
Mejor no explico más… lo último que queremos los webmasters honestos es darles ideas a los spammers.