Reflexión final

Estándar

Hola, voy a comentar mi experiencia con las herramientas seleccionadas, Netvibes, Kune y OJS.

NETVIBES

Es una programa de suscripción y organización de actualizaciones de páginas webs, principalmente blogs.

Esta aplicación es una gozada. Ofrece tanto servicio con tan poco esfuerzo que es extraño que no cobren por ello. Una vez nos hemos registrado su funcionamiento va de lo intuitivo a lo obvio y en nada ya podemos disfrutar de sus prestaciones.

Una vez me he acostumbrado a utilizar Netvibes lo primero que busco en un blog que me interesa es el símbolo de RSS o ATOM para “llevarme” su información actualizada a Netvibes.

El siguiente paso ha sido organizar las pestañas, pues resulta que tengo curiosidad en más cosas de las que creía, gracias a esta aplicación.

Y el último paso es hacer una criba con todas las páginas suscritas para eliminar la información redundante y mantener la de mejor calidad.

Seguiré manteniendo Netvibes y recomendándolo.

KUNE

Es una plataforma para la realización de proyectos colaborativos con licencia CC. La interfaz y el registro es sencillo y los mensajes de ayuda son habituales.

Proporciona un espacio para el trabajo con diversas herramientas para la compartición de textos, ficheros; un espacio para guardar documentos para el grupo; un espacio para planificación del proyecto siempre visible para todos los componentes del grupo; herramientas de comunicación como la sala de chat, el blog y la wiki. Tiene una comunidad de apoyo y promoción bastante fuerte y cohesionada y cada día se incorporan más grupos con temática de los más diverso: Escuela experimental, Cultura Libre, Amigos del Libro…

Tiene una clara orientación hacia el compromiso social y cooperativo y el acceso abierto al conocimiento.

He probado Kune con un compañero y me ha parecido que es una iniciativa, que si tengo la oportunidad la utilizaré en actividades que requieran la comunicación constante para la creación de proyectos.

Podéis encontrar más información en:  https://kune.cc/#!

OJS

Es un programa para la edición de revistas.

He trabajado con ella para crear una revista con unos compañeros de curso. Cada uno hemos adoptado un rol, el editor, el autor, el evaluador, el diseñador, el maquetador hasta que hemos hecho nuestro primer número ficticio. Todos accedemos a la misma interfaz pero cada uno tiene acceso a una parte.

El proceso de edición de una revista consta de pasos sucesivos, no simultáneos con lo que el trabajo depende de que el anterior esté hecho. Por esta circunstancia es muy útil la aplicación de plazos en todas las acciones que se realizan. Por ejemplo: una vez recibido el original, el editor envía la prueba al evaluador con un plazo de respuesta, los tipos de respuesta -aceptación, rechazo, aceptación sujeta a modificaciones y las consecuencias de no cumplirlo.

Este cronograma sobre la marcha es necesario para llegar a tiempo en la publicación del nuevo número.

Y ya está. Me despido de mis compañer@s y profesores. Ha sido un placer aprender con vosotros. Feliz verano!

Predicciones

Estándar

Predicciones para el 2012

Las dimensiones y posibilidades de la web social hacen necesaria la inclusión de un nuevo perfil de trabajo en cualquier empresa o entidad, el especialista en medios de comunicación. La actividad desarrollada en este puesto debe considerarse como estratégica, pues de ella depende en buena parte la imagen que proyecta la organización. Conviene estar atentos a todos los que nos miran y opinan sobre nosotros y tenerlos muy en cuenta porque son nuestro mercado y son volátiles para lo bueno -poderles convencer de que nuestro producto o servicio les conviene- y para lo malo -las críticas de una mala experiencia vuelan-.

El especialista en medios de comunicación, dada la responsabilidad que ostenta, habrá de cumplir ciertos requisitos de formación pero será fundamental su capacidad creativa, empatía, conocimiento del “mundo real”, permanentemente actualizado pues debe actuar como un intermediario entre los usuarios/consumidores y el engranaje de una organización. Es decir, capturar el deseo del usuario y saber transmitirlo a quienes tomas decisiones y al revés.

Una de las claves del éxito de una empresa no es atraer la atención de un amplio grupo de clientes, -seguidores, amigos- sino conseguir ser útil y conseguir llevar al éxito a muchos de ellos. Tampoco es suficiente con que se emita una gran cantidad de información sobre la organización, pues generar contenido ya no es novedad y la competitividad es despiadada, sino contenidos de calidad.

Marcus Sheridan habla del potencial de aquellos sectores que se han mantenido hasta el momento ajenos a la comunicación en la web promocionándose de forma tradicional y que poco a poco están dando el salto. Proceden de oficios diversos y su mejor baza es la profesionalidad y experiencia en su trabajo. No tienen que vender humo, no se trata de una nueva empresa que busca crear necesidades que los usuarios desconocían echar en falta. Y la web les proporciona un espacio para llegar a más clientes, conocerlos mejor y adaptarse. Que los fontaneros se incorporen a la web es una buena noticia, no sobran expertos.

El acceso a la web desde el móvil es otra de las tendencias que se señalan en el blog: la ubicuidad y disponibilidad permanente a los contenidos e informaciones. No se trata de un ajuste de dimensión de pantalla, o de un formato mini, es mucho más, es otro punto de vista.

Respecto a las predicciones para el 2011, algunas se han cumplido parcialmente. Rubén Vinagre predecía el voto electrónico para elecciones generales, y de momento podemos contar con el voto electrónico de los diputados de las cortes. Juan Sánchez vaticinó que Google haría lo posible contra Facebook con su nueva red social y por lo que hemos visto en la asignatura, y la situación personal -salida a bolsa- de Facebook, es muy cierto que por lo menos es un digno rival.

En cuanto a la apertura y enlace de datos creo que han sido demasiado optimistas. El compromiso para la liberación de datos administrativos, estadísticos, de los gobiernos e instituciones para su uso público es lento. En España destaca la aprobación de un Real Decreto en 2011 que desarrolla la Ley sobre Reutilización de la Información del sector público, el proyecto datos.gob.es y el concurso Desafío Abredatos para el desarrollo de APIS. Pero estamos muy lejos de iniciativas como “Where does my money go?, para conocer en dónde se invierten nuestros impuestos o “Mapnicificent” para el transporte público.

Creo que Xavier Peytibi y otros tantos se han aproximado bastante a la realidad. Facebook y Twitter son los reyes indiscutibles de la red.

Finalmente me solidarizo con los deseos de Montse Monllau para que se cumplan lo antes posible.

Monitorizando a Richard Stallman y a OCLC

Estándar

He seleccionado para monitorizar su reputación en la web a Richard Stallman y  OCLC, a través de las herramientas: Alertas de Google, Blogsearch, Twitalyzer y Tweetstats.

Desde Blogsearch para Richard Stallman aparecen 531.000 resultados y los primeros hacen referencia a la red social Identi.ca que se nutre directamente de su blog y a la GNU como páginas principales. El resto son noticias en varios medios sobre sus últimas declaraciones. Para OCLC, Blogsearch ofrece 233.000 resultados de los cuales las tres principales páginas remiten a su página de productos y servicios.

Si quisiéramos hacer una comparación, podríamos decir que a pesar de contar Richard Stallman con más cantidad de entradas que la OCLC, las de la institución poseen un mayor valor como contenido y novedad. Además después de haber hecho un seguimiento en Google Alerts configurado para ambos para recibir lo más reciente sobre ellos en la red diariamente y durante esta semana se puede decir que la OCLC destaca sobre todo por la generación de noticias sobre sí misma en su ámbito, en su mayoría procedentes de sus páginas y bastante bien retroalimentada por parte de otros servicios -blogs, congresos, promoción de productos, nuevas incorporaciones…-. Son aportaciones positivas, constructivas y colaborativas.

Por su parte los resultados en Google Alerts sobre Richard Stallman proceden de medios de comunicación en torno a unas mismas declaraciones, con información redundante pero de contenido crítico o ideológico. Podemos decir que se trata de una persona de gran repercusión e influencia, polémico, y con sus seguidores y detractores pero que en cualquier caso sus palabras son siempre noticia, lo cual es un riesgo, también.

En Social Metion Richard Stallman obtiene 487 menciones en su mayoría son neutrales, en tanto que el indicador de sentimiento positivo o negativo se mantienen bajos -más el negativo-. No tiene mucha fuerza un 8% , y su índice de pasión es de un 41%. Por su parte el OCLC presenta una fuerza similar -entendida como la capacidad de generar contenidos o conversaciones alrededor de él- pero en cuanto a la pasión que generea está cercana al 50%.

Desde Twitalyzer se considera a OCLC una institución muy cercana a la web y alrededor de la cooperación bibliotecaria, lo cual es bueno y es adecuado que se lo conozca por eso. Destaca que dentro de su círculo, que no es muy grande tiene gran influencia y cuenta con más de 7000 seguidores. Con TweetStats comprobamos que producen entre 300 y 700 twits al día.

No podemos hacer ninguna comparación sobre Richard Stallman en Twitter porque no tiene -está suspendida la cuenta-.

Como conclusión podemos decir que el OCLC es una organización con presencia y buena reputación web.

Por su parte Richard Stallman se muestra como un usuario despreocupado por su reputación en la web, intencionadamente fuera de famosos canales de interacción social y totalmente ajeno a los dictados de la red. Aunque pudiera parecer una mala decisión, parece que esta filosofía origina el efecto contrario, admiración, seguimiento, apoyo….

Google+ va bien o no?

Estándar

 

Alguna vez me he preguntado cómo es que no tiene éxito todo lo que Google hace -toca-, dado que cuenta con un conocimiento -sobrehumano- de todos nosotros, de lo más profundo además, como son nuestros gustos y preferencias. Pero sabemos que ha tenido que cerrar varios proyectos: http://tinyurl.com/c6ozhpw o http://tinyurl.com/ckcgj6h

Lo cual nos lleva a que: disponer de toda la información no es suficiente, o a que Google no accede a tanta información como creemos o, que no sabe aprovecharla.

He hecho una búsqueda en Google sobre “Google fracaso” y -por lo menos desde mi ordenador- solo se habla de lo mal que le ha ido a Google+. En estos resultados lo que se dice es que no puede con Facebook, que nadie lo usa y que una de las razones de que no despegue es que se lo han “creído” y que no se lo han “trabajado” como Facebook. Son comentarios de 2011.Y por otro lado está lo dicho en las lecturas por Cristian González, Joaquín Márquez y Enrique Dans que afirman todo lo contrario basándose en datos de sus blogs.

Parece que en Internet si el éxito no es rápido ya no es éxito y que unos servicios deben sustituir a otros de la noche a la mañana -somos volubles, pero no a tanta velocidad y además también tenemos vida propia-. Esto suena a cuando Televisión Española tenía 20 o más millones de espectadores. Esta exigencia de atención ya no se puede sostener y hay que conformarse con cifras más moderadas. Además la rapidez a la que un servicio toma la delantera sobre los demás no garantiza nada más que eso. Puede desinflarse sin la menor piedad por parte de los usuarios.

Facebook se me ha atragantado con el dichoso número de teléfono y eso me hace ser muy parcial. Es como cobrarte, como las comisiones de los bancos sin previo aviso, cuando eres cliente de “siempre”. Esta rabieta me la puedo permitir porque tengo un alternativa -de momento- que es Google+. Hace unos meses hubiera pensado que tampoco es para tanto dar el teléfono y que merece la pena por compartir una foto simpática con los amigos. Que haya otra opción, hace que comparemos. Y que todas aquellas pequeñas quejas sobre configurar la privacidad, cambios en la interfaz … que están en el subconsciente y que no podía compartir con otros porque -no estás tanto al día, tienes que ponerte una tarde con ello y verás como te sale…- pues, afloran.

Yo creo que los profesores Eva y Tony sabían que íbamos a tener problemas con las cuentas de Facebook porque han sido muy comprensivos. 🙂

Por último sobre las búsquedas más sociales de Google, si todos leemos lo mismo no innovamos, así que no me gusta. Yo diferenciaría el papel los sitios de recomendaciones como Delicious del papel de un buscador al que le exigiría que me mostrara resultados sin más. Luego ya decidiré yo lo que me va bien.

Disculpad si el tono del post ha sido un poco brusco, no era mi intención.

Saludos

Herramientas: Kune, OJS, Netvibes

Estándar

Estas son las aplicaciones que voy a intentar investigar:

Kune: herramienta para el trabajo en torno a proyectos colaborativos

OJS (Open Journal System): sistema para la edición y publicación de revistas electrónicas

Netvibes: escritorio virtual de favoritos

Profundizaré en ellas para contaros  cuáles son sus utilidades.

Saludos

Diferencias entre Web 2.0 y 1.0

Estándar

Graham Cormode y Balachander Krishnamurty explican en su artículo “Key differencies between Web 1.0 y 2.0” algunos aspectos sobre todo técnicos que hacen diferente a la web 2.0 respecto a su predecesora.

Una de las cuestiones que tratan los autores es la manera en la que la Web 2.0 reacciona ante el tráfico masivo no esperado. Señalan que mientras que la Web 1.0 podía colapsarse la 2.0 cuenta, entre otros mecanismos, el requerimiento del registro previo lo que permite estimar la cantidad potencial de usuarios que accederían a un contenido de ese sitio. Además se dice que ese hipotético acceso múltiple sería a cierta parte del sitio y en ese sentido la situación no sería tan grave. Sostienen que también contribuye el hecho de que los sitios 2.0 sean más grandes y se supone que con mejor tecnología y resaltan la tolerancia a la manipulación de los usuarios en lo concerniente a valoraciones públicas o intromisiones en sus cuentas, como por ejemplo añadiendo amigos no solicitados.

Entre los términos interesantes están latencia, que según la Wikipedia se refiere, en redes informáticas de datos, a la suma de retardos temporales dentro de una red. La predicción de tendencias es otra expresión que se aplica en este caso como línea de investigación a seguir por la Web 2.0 para prever direcciones en los comportamientos de los usuarios de un sitio a otro o las preferencias de una aplicación y otra.

Otro término interesante es el de la balcanización de la Web 2.0 que consiste en el hecho de no participar en otras redes sociales. Los autores lo consideran un riesgo pero explican que este efecto se suaviza con el constante uso de enlaces a sitios más allá de la frontera de esa red.

En la Web 2.0 las comunicaciones suelen ser cortas y episódicas lo que facilita las comunicaciones instantáneas vía teléfono móvil. Mientras, en la 1.0 la comunicación era bastante restrictiva, en la que se enviaba una pregunta a un sitio que podía que responder o no, en caso de saturación.

Los autores señalan que la medición de la Web 2.0 es más complicada que la 1.0 por el número de usuarios y servidores. En ocasiones se hace necesaria la ayuda del propio sitio como en el caso del “Me gusta” de Facebook. Conviene tener en cuenta además las numerosas aplicaciones que se instalan en las redes sociales y que generan un incremento de las interacciones. En la Web 1.0 “la medición del tráfico se basaba en indicadores precisos y comparables”, es decir la contabilidad de clientes, servidores… Este tipo de metodología ha dejado de ser representativa para medir los comportamientos de los usuarios en el entorno 2.0 especialmente, según los autores, por el carácter asíncrono de las transferencias. Es decir, si he entendido bien, que la apertura de una página no implica la atención permanente del usuario -podemos prestar atención a otras pestañas-, el acceso a una página no detalla las distintas acciones que se pueden realizar sobre ella, un zoom, por ejemplo. Esto conduce a un replanteamiento de los indicadores ponderando otros aspectos como el hecho de añadir comentarios, clicks para indicar afinidad o no, añadir enlaces semánticos o generación de contenidos propios.

La web 2.0 es un poco más semántica que la 1.0, puesto que hay participación y modificación de los sitios por los usuarios -cuando no construidos por ellos- y por tanto los métodos de evaluación no deben ser los mismos.