miércoles, 28 de octubre de 2009

Nuevo Portal de Noticias de Arequipa

Un nuevo portal de noticias de Arequipa ha sido creado por un grupo de periodistas liderados por Miguel Manchego Avilés en el cual se publican las últimas noticias de la ciudad.

El Portal cuenta con un espacio para que los visitantes puedan comentar las noticias, así como espacios para anunciar los diferentes productos y servicios que brindan empresas con público objetivo en Arequipa.

domingo, 27 de setiembre de 2009

jueves, 14 de febrero de 2008

Adsense con bajas ganancias en estos dias de febrero

Las ganancias en estos dias de febrero de 2008, aproximadamente del 10 al 14 han sido muy bajas en mi cuenta. Que pasa con Adsense? he notado incrementar los clicks significativamente en base a esfuerzo y aporte de contenido lo cual ha generado más impresiones y por ende más click pero las ganancias son menores cada día... Así no juega Perú.

domingo, 10 de febrero de 2008

Ahorrar tiempo con un directorio de periodicos

Estaba buscando periodicos de españa y me encontre con esta pagina donde hay listados de periodicos por paises, la recomiendo: Prensa123.com es un directorio de periódicos que abarca todos los continentes!

domingo, 9 de setiembre de 2007

9 de setiembre: Nada de la Actualización de PageRank

Muchos predecían para Agosto la nueva actualización de PR de Google, pero ya estamos 9, casi 10 de setiembre y no hay nada, será mañana?

2anime.com

domingo, 26 de agosto de 2007

Nombres Genéricos

Estaba pensando en encontrar un nombre de dominio genérico para no estar comprando cada vez dominios con el tema del sitio. En este caso se me ocurrió un nombre que puede servir para información de portales en cada país del mundo (habla hispana):

http://peru.portalnacional.info/

http://chile.portalnacional.info/

http://mexico.portalnacional.info/


Qué te parece?

Actualización de PAGERANK de Google en Agosto de 2007


En los próximos días incluso es posible que en las próximas horas se produzca la actualización o mejor dicho la exportación del “deseado” Pagerank a los datacenter Públicos de Google.


Como saben la mayoría la actualización interna del Pagerank de Google se produce con mucho más frecuencia que la exportación externa que se suele hacer cada 3 meses aproximadamente.

Al día de hoy muchas webs nuevas han actualizado los Backlinks (recuerda que para ver tus backlinks en Google tienes que poner link: tuweb en el formulario de búsquedas de Google) y este proceso de actualización de backlinks suele ser la antesala de la actualización del Pagerank.

Google realizó la pasada actualización a finales de Abril de 2007.


Como siempre se recomienda no obsesionarse con este indicador ya que no es el único a la hora del posicionamiento. Sin embargo sí que es de gran ayuda para las campañas de intercambio de links.

jueves, 2 de agosto de 2007

Googlebot: el rastreador web de Google

Googlebot: el rastreador web de Google Googlebot es el robot de rastreo web de Google. También se denomina “spider” (araña). Recopila documentos de la web para crear un índice en que se puedan realizar búsquedas (Google.com). En este tema veremos las respuestas a las preguntas más frecuentes acerca de cómo funciona este rastreador web.

¿Con qué frecuencia viene Googlebot a mis páginas web?

En la mayoría de los sitios, Googlebot no debería acceder a su sitio más de una media estimada de una vez al cabo de unos segundos. Sin embargo, a causa de retrasos en la red, es posible que el porcentaje parezca ligeramente superior en períodos cortos de tiempo

¿Cómo puedo solicitar que Google no rastree mi sitio o una parte de él?

robots.txt es un documento estándar que notifica a Googlebot que no debe descargar información total o parcialmente desde su servidor web. El formato del archivo robots.txt está especificado en el Robot Exclusion Standard. Para obtener instrucciones detalladas acerca de cómo evitar que Googlebot realice el rastreo de todo su sitio o de parte de éste, consulte la página Cómo eliminar elementos del índice de Google. Recuerde que los cambios en el archivo robots.txt de su servidor no se reflejarán inmediatamente en Google. Se detectarán y propagarán la próxima ocasión que Googlebot rastree su sitio Googlebot rastrea mi sitio demasiado rápido.

¿Qué puedo hacer?Ante esta situación, se debe enviar un mensaje a Google en el que les indique la URL de su sitio y una descripción pormenorizada del problema. Incluya también una parte del registro web que muestra los accesos a Google.

¿Por qué Googlebot solicita un archivo denominado robots.txt que no se encuentra en mi servidor?

robots.txt es un documento estándar que notifica a Googlebot que no debe descargar información total o parcialmente desde su servidor web. Para obtener información acerca de cómo crear un archivo robots.txt, consulte el Robot Exclusion Standard. Si lo único que quiere es evitar que aparezcan en el registro de su servidor web los mensajes de error "no se ha encontrado el archivo", puede crear un archivo vacío que se llame robots.txt.

¿Por qué Googlebot intenta descargar vínculos incorrectos de mi servidor o de un servidor que no existe?

Es un hecho que muchos vínculos de la web estarán rotos u obsoletos en un momento concreto. Cuando un usuario publica un vínculo incorrecto hacia su sitio (debido quizá a un error tipográfico o de ortografía) o no actualice sus vínculos para reflejar los cambios en su servidor, Googlebot intentará descargar un vínculo incorrecto desde su sitio. Ésta es la razón por la cual puede obtener resultados en una máquina que no es un servidor web.

¿Por qué Googlebot descarga información de nuestro servidor web "secreto"?

Es casi imposible mantener un servidor web "secreto" no publicando vínculos hacia él. Cuando un usuario sigue un vínculo desde su servidor "secreto" a otro servidor web, es probable que su URL "secreta" se incluya en el código de referencia, por lo que podrá ser almacenada y posiblemente publicada por el otro servidor web en su registro de referencia. Por lo tanto, si existe un vínculo a su servidor o página web "secretos" en cualquier lugar de la web, es probable que Googlebot y otros rastreadores web lo encuentren.

¿Por qué Googlebot no obedece a mi archivo robots.txt?

Para ahorrar ancho de banda, Googlebot sólo descarga el archivo robots.txt una vez al día o cuando han recogido un número importante de páginas del servidor. Por lo tanto, es posible que a Googlebot le lleve un tiempo ponerse al corriente de los cambios en su archivo robots.txt. Además, Googlebot se encuentra distribuido en varias máquinas, cada una de las cuales mantiene un registro propio de su archivo robots.txt.Siempre sugerimos que se compruebe si la sintaxis es correcta, comparándolo con el estándar en http://www.robotstxt.org/wc/exclusion.html#robotstxt. Una fuente habitual de problemas es que el archivo robots.txt no está ubicado en el directorio principal del servidor (por ejemplo, www.mihost.com/robots.txt); situar el archivo en un subdirectorio no tendrá ningún efecto.Igualmente, existe una pequeña diferencia entre la manera en que Googlebot utiliza el archivo robots.txt y la manera en que se debería utilizar según el estándar robots.txt (sin olvidar la distinción entre "debería" y "debe"). El estándar indica que deberíamos utilizar la primera regla aplicable, pero Googlebot obedece a la más larga (es decir, la más específica). Esta práctica que resulta más intuitiva hace coincidir lo que las personas hacen en realidad con lo que esperan que hagamos. Por ejemplo, tenga en cuenta el siguiente archivo robots.txt:User-Agent: * Allow: / Disallow: /cgi-bin Es evidente que la intención del webmaster es permitir que los robots rastreen todo excepto el directorio /cgi-bin. En consecuencia, es lo que en Google hacen.

¿Por qué se producen resultados desde varias máquinas en Google.com, todas con el agente usuario Googlebot?

Googlebot se ha diseñado para distribuirse en varias máquinas para mejorar el rendimiento y adaptarse al crecimiento de la web. Además, para reducir el uso de ancho de banda, ejecutan varios rastreadores en máquinas situadas cerca de los sitios que están indexando en la red.
¿Pueden facilitarme las direcciones IP desde las que Googlebot realiza los rastreos para que pueda filtrar mis registros?Las direcciones IP utilizadas por Googlebot cambian de vez en cuando. La mejor manera de identificar los accesos de Googlebot es utilizar el agente usuario (Googlebot).

¿Por qué descarga Googlebot en mi sitio la misma página varias veces?

En general, Googlebot deberá descargar únicamente una copia de cada uno de los archivos de su sitio en un rastreo dado. De manera ocasional, el rastreador se detiene y se reinicia, lo que puede provocar que realice el rastreo de páginas que ha recuperado recientemente.

¿Por qué las páginas de mi sitio que ha rastreado Googlebot no aparecen en su índice?

No se preocupe si no puede encontrar inmediatamente documentos que Googlebot ha rastreado en el motor de búsqueda de Google. Los documentos se introducen en nuestro índice poco después de haber sido rastreados. En ocasiones, los documentos obtenidos por Googlebot no se incluyen por diversas razones (por ejemplo, por parecer duplicados de otras páginas de la web).
¿Qué tipo de vínculos rastrea Googlebot?Googlebot rastrea los vínculos HREF y SRC.

¿Cómo puedo evitar que Googlebot rastree los vínculos de mis páginas?

Si desea obtener más información acerca de los metacódigos, consulte http://www.robotstxt.org/wc/exclusion.html#meta; también puede leer lo que indican los estándares HTML al respecto. Recuerde que los cambios que aplique en su sitio no se reflejarán inmediatamente en Google, sino que se detectarán y propagarán la próxima ocasión que Googlebot rastree su sitio.

¿Cómo le especifico a Googlebot que no rastree un vínculo que aparece solo en una página?

Los metacódigos pueden excluir todos los vínculos salientes de una página, pero también puede indicar a Googlebot que no rastree los vínculos individuales añadiendo rel="nofollow" a un hipervínculo. Cuando Google detecte el atributo rel="nofollow" en algún hipervínculo, éste se omitirá en la clasificación de sitios web en nuestros resultados de búsqueda. Por ejemplo, el vínculo ¡Un vínculo excepcional!se podría sustituir por No puedo responder por este vínculo.

Autor: Googlehttp://books.google.es/webmasters/bot.html

lunes, 16 de julio de 2007

Oficina de Multivía en Google Earth

Av. Ejercito 710, Of. 1003, Piso 10. Yanahuara, Arequipa - Perú.

Archivos .SWF ya son indexados por Google®

Parece ser que Google toma la iniciativa siendo el primero de los buscadores que es capaz de indexar los archivos de Flash. Esta es una muy buena noticia para todos los amantes de utilizar Flash en el diseño de sus páginas.

Hasta ahora el uso de Flash y la promoción de una página en lo referente a SEO (Search Engine Optimization) eran dos términos opuestos. El motivo de esto es que los buscadores eran incapaces de indexar en sus bases de datos aquellas páginas realizadas con Flash, es decir, para ellos una página realizada con Flash es simplemente una caja negra de la que nada se sabe. Si por ejemplo la página principal de nuestro web, la index, estuviese realizada íntegramente con Flash, los robots al procesar nuestra página no obtendrían ningún resultado. Esto haría que tanto el contenido de esta página como los enlaces hacia otras páginas quedasen sin explorar por el robot, y por lo tanto ignorados por completo.

Por este motivo en muchas ocasiones se tiene que decidir entre hacer una página con Flash mas llamativa desde el punto de vista del diseño y de la interacción con el visitante, o realizarla mas sobria en html pero con unas posibilidades de optimización en buscadores mayores.
Bueno, pues aunque todavía es prematuro afirmar que hacer una página con Flash tiene las mismas posibilidades desde el punto de vista de SEO que hacerla en html, Google ha empezado a andar el camino indexando el contenido, los enlaces, etc de nuestras películas Flash.

Para comprobar como Google indexa las películas .swf podemos ir a Google y buscar indicando el termino a buscar y añadiendo al final el tipo de fichero a buscar, como se muestra en el ejemplo: terminoabuscar filetype:swf

Todavía existen muchos interrogantes respecto al tratamiento que recibirán estos .swf al ser indexados y si estarán equiparados en importancia a los html, pero por el momento es una buena noticia que una película .swf deje de ser una objeto oscuro para Google.
Supongo que irán surgiendo nuevas informaciones que complementen este artículo por lo que agradecería cualquier comentario que aporte algo nuevo.

Autor: Alfredo Anayahttp://www.adrformacion.com/noticias/articulo.php?ref=7

jueves, 12 de julio de 2007

Buena descripción: Más visitas

Diversos estudios han demostrado que realmente los usuarios no leen en un principio los resultados de los buscadores si no que hacen un escaneo rápido de la página. Los SEO debemos de llamar su atención lo más posible sin caer en errores gramaticales, ortográficos, simbología ni superlativos engañosos. Un ejemplo de estos pueden ser :

Gramaticales :
gratis descargas en tododescargas.com

Ortográficos :
vienvenidos a tododescargas.com

Simbología:
###—-!!!!ToDoDeScArGaS¡¡¡¡—-###

Superlativos engañosos:
Descargate gratis todos los mejores programas en tododescargas.com

Esta última puede frase puede llegar a generar en el usuario una desconfianza ya que todos los mejores programas no son gratuitos por lo que el usuario está sintiéndose engañado leyendo la descripción de la página y por lo tanto no hará click en ella.

Una vez explicado esto, ¿como podemos llamar la atención de nuestro usuario en la página de resultados?
Pues ya hemos hablado muchas veces de la optimización de los snippets pero esta vez vamos a optimizar todavía más la descripción de nuestro sitio.

Debemos de introducir dentro de la descripción de nuestro sitio la keyword por la que queremos posicionarnos yo diría que incluso 2 veces si la densidad de palabras nos lo permite y esta no parece metida con calzador. Ya que así nos aseguraremos que al realizar un primer escaneo de la página el usuario se fija en nuestros resultados al estar más resaltados y tendremos más posibilidad de que pinche en nuestro enlace antes que en otro que no tiene las palabras clave que él ha buscado y por tanto no las tiene resaltadas.

Sin embargo si incluimos la palabra clave en nuestro título 2 veces está claro que por la misma regla que lo anterior podemos obtener mejores resultados para esa Keyword pero también podemos estar perdiendo otras combinaciones de palabras que nos reporten buenos resultados, tener encuenta que Google no muestra la misma cantidad de caracteres en el título que en las descripciones por lo que la optimización debe de ser diferente.

lunes, 9 de julio de 2007

Links desde la misma IP no valen igual para Google

Así es, esto me enteré luego de pasar por el mal momento de ver mas de 20 dominios caidos a la vez. Creo que lo había leído antes pero no le di importancia, linkear desde páginas con la misma IP es menos valioso (creo que mucho) que darles un link desde un sitio con otro IP. Ahora entiendo el porque de los resultados cuando colocaba el link:www.miweb.com y aparecian algunas pero no todas las paginas en las que puse links.

Compré una IP propia en mi cuenta de Godaddy y solucione el problema de mis webs caidas en Speedy (Por ahora)

Desde el jueves hasta el lunes por la mñana era demasiado tiempo. A pesar de que los cerca de 25 dominios hospedados en la ip baneada por Speedy eran en su mayoria proyectos propios u algunas empresas con publico en otros paises donde si podian ver las webs normalmente, igual 3 dias y medio son en internet el equivalente a un año en la vida real.

Primero llame al 104 pero como ya se imaginarán no solucioné nada, a pesar de estar media hora discuitiendo con la operadora para que me transfiera a un técnico de redes de telefónica, porque es verdad que aburren con su "desconecte su router, vea el foquito, etc, etc,"

Bueno, ahora a recuperar el tiempo perdido, si tienen alguna experiencia en páginas que no se ven en speedy u otro servicio de acceso no duden en comentarlas aqui.

domingo, 8 de julio de 2007

Gracias Speedy de Telefonica por bloquear mi IP



En un claro ejemplo de abuso y desinterés los señores de Telefónica bloquearon de un momento a otro la IP donde tengo alojados 25 dominios.

Por lo que he averiguado son casos que se repiten, y lo unico que podemos hacer es cambiar de IP, subir el backup de los 25 dominios en otro servidor y esperar a que la nueva ip no sea tambien "olvidada" por los tecnicos de speedy.

PAra que vean que no es el unico caso : http://www.forosperu.net/showthread.php?t=5128

El dinosaurio Nokia 6810


Este celular en su momento fue lo ultimo en tecnlogia, pero ahora no es mas que una pieza de museo... O estaré exagerando?

Bueno ya que ahora se habla de iphone, Nokia 9200, sony ericson w1000 no se cuanto, este cel ya paso a la historia.

Pero lo que si queda claro hasta ahora es que su teclado qwerty era lo mejor que tenia, podias escribir tan rapido y facil como en cualquier telcado de pc, en cambio los demás hasta ahora no logran esto, salvo los que usan pantallas tactiles como el iphone.

Monitor LCD AOC 712 Si

Este es mi nuevo monitor LCD. No trae CD de instalación, solo es necesario conectarlo y automaticamente creara un driver en la pc. El problema fue que cuando regrese el CPU a su monitor original (un Viewsonic CRT) no se podia entrar a Windows, tuve que conectarlo a otro Monitor que tenia mas capacidad de frecuencia (75 a 1280 x 1024) y luego restaruar sistema para que "regrese" a su estado anterior antes de conectarle el Monitor LCD.
Características
Este monitor tiene buena calidad de imagen, su angulo de vision es 170 tanto vertical como horizontal, con resolucion nativa de 1280 x 1024, pero es necesario contar con tarjeta grafica independiente, ya que ahora lo tengo en una pc con tarjeta de video integrada y se nota una leve baja.

Sitemap de www.todaslasdietas.info

Para crear el sitemap de www.todaslasdietas.info use una herramienta gratuita de www.dinamicrive.com esta genero un archivo que lo inserte en google sitemaps. Cuando buscaba con site:todaslasdietas.info solo me salia en el resultado la pagina principal, pero al cabo de unas semanas ya tenia 13 resultados (aun no salen todos).

Otra forma de que aprezcan las que faltan podria ser linkearlas desde alguna otra pagina que si salga y que tenga mas antiguedad o mayor PR que las que ya se muestran del propio sitio www.todaslasdietas.info.

Método que utlizo para colocar nuevas webs en los resultados de búsqueda

Hace como un año que realizo algunos experimentos en las webs que pongo en línea para obtener buenos resultados de búsqueda. Mi método para que se muestren en los resultados es primero linkearla desde cualquier web que ya este presente en los resultados de google, en mi caso uso www.w-express.net/index.html al cabo de unos 3 o 4 días la nueva web debe aparecer ya en los resultados de busqueda, al mismo tiempo del linkeo me aseguro de que cada pagina tenga sus metatags respectivos, es decir titulos relevantes, H1, H2, etiquetas en las imagenes, y lo más importante: contenido relevante.

A partir de alli empiezo a intercambiar links entre ellas, uso al comienzo las paginas que administro con PR 4 o cuando es un cliente muy importante puedo usar http://www.multiviaonline.com/ que tiene PR 5.

Poco a poco voy linkeando de diversas paginas con PR 4 , esto lo hago gradualmente para no ser baneado por Google.

Uso sistema de estadisticas Google Analytics, esto me permite ir midiendo el progreeso de la pagina desde su lanzamiento.

Generar Site maps tambien es necesario, en los próximos posts comentaré sobre este tema.

Si tienen alguna experiencia que quieran compartir acerca de posicionamiento no duden en dejar sus comentarios por favor.