Cita:
Iniciado por cequiel
No, si yo estoy de acuerdo contigo.
Todo indica que cada vez vamos a depender más del acceso a internet para correr aplicaciones. Incluso aplicaciones que exigen una capacidad de cómputo alta y manejar grandes cantidades de información.
Además, es una idea bastante buena para proteger el software de los que se quejan constantemente de que piratean sus programas. En estas condiciones o alquilas el servicio o no lo puedes utilizar.
Sinceramente creo que el futuro va encaminado a ese modelo del que hablas. Pero también creo que actualmente hay un montón de servidores que no están preparados para soportar esta arquitectura y tendrán que actualizarlos por nuevos servidores (superordenadores).
Ciertemente no es algo que se prevea para mañana, pero creo que este tipo de acciones no dejan lugar a dudas de que ya no existen al menos impedimentos técnicos para que el salto se dé, al menos el más grande cuello de botella, que es el ancho de banda, parace que se ha solventado.
Cita:
Iniciado por cequiel
Sigo pensando que hoy en día tener un ancho de banda enorme no es garantía de que vayas a tener internet a la misma velocidad (a lo mejor me estoy equivocando, pero creo que no). Y digo hoy en día. En un futuro cercano seguro que no es así.
jeje, bueno, desgraciadamente al día de hoy solo existe una persona en el mundo con una conexón doméstica de ese calibre, pero basándonos en lo que dice la nota, podemos plantear el siguiente experimento.
Si con esa conexión se puede descargar un DVD completido en dos segundos, basta medir el tiempo que toma copiar esa misma cantidad de información entre dos discos duros para saber si tenemos la misma -o mayor - velocidad o nó.
Saludos.