El Blog de CULTura AUDIOvisual nace al hacerse cada vez más GRANDE la asignatura y poco a poco, me empezaba a dar la sensación de que necesitaba su propio espacio

domingo, 14 de mayo de 2017

...comunicación y creación.
Internet nos trae un cambio cultural revolucionario, al ofrecer la posibilidad de obtener información, comunicarnos o efectuar transacciones desde cualquier lugar del mundo, de forma casi instantánea y en el formato que deseemos, transformando con ello la forma de trabajar y de educar, el ocio, la economía, la política o la sanidad.
Fechas importantes 
  • 1972: Se realizó la Primera demostración pública de ARPANET, una nueva red de comunicaciones financiada por la DARPA que funcionaba de forma distribuida sobre la red telefónica conmutada.
  • En 1990 el CERN crea el primer World Wide Web ( WWW )
  • 1993 se levanta la prohibición al uso comercial del Internet y definido la transición hacia un modelo de administración no gubernamental que permitiese, a su vez, la integración de redes y proveedores de acceso privados.
  • 2006: El 3 de enero, Internet alcanzó los mil cien millones de usuarios.
Larry Page y Sergey Brin fueron los creadores de Google , un motor de búsqueda resultado de la tesis doctoral de Larry y Sergey para mejorar las búsquedas en Internet. 
  • Partiendo del proyecto concluido, Page y Brin fundan, el 4 de septiembre de 1998, la compañía Google In
  • Se estrena en Internet su motor de búsqueda el 27 de septiembre siguiente (considerada la fecha de aniversario)
La Web en sus inicios estaba constituida por páginas estáticas en formato HTML. Aesta era de la Web se le conoce como Web 1.0. El objetivo de los desarrolladores erasimplemente publicar información, romper la barrera de la inercia que impone lonuevo y comenzar a explotar al máximo este modo de comunicación más rápido. Lastecnologías utilizadas en esta primera etapa fueron el lenguaje HTML y el protocolo
HTTP principalmente.


El 90% de los internautas utilizan la Red para buscar algo y, sobre todo, para buscar información. La lectura de noticias está hoy entre las actividades habituales de cuatro de cada cinco usuarios y, además, es una de las que más crecen, pisándole los talones al correo electrónico, que sigue siendo el servicio más utilizado.
La UNESCO reconoce que Internet encierra un enorme potencial para el desarrollo. Suministra un volumen sin precedentes de recursos para la información y el conocimiento y abre nuevas oportunidades de expresión y participación.
 La Organización asume su responsabilidad de promover la libertad de expresión en Internet y la ha incorporado en su Programa Ordinario. El principio de la libertad de expresión no se debe aplicar únicamente a los medios de comunicación tradicionales, sino también a Internet y todos los tipos de plataformas de comunicación de reciente aparición que seguramente contribuirán al desarrollo, la democracia y el diálogo.
Además del carácter transfronterizo de Internet, existen muchísimos factores que determinan el nivel de la libertad de expresión en ella y los distintos enfoques normativos repercuten en la libertad de expresión. La verdadera dificultad reside en aprovechar completamente el potencial de los nuevos medios de comunicación, sin poner en peligro las libertades civiles, en particular el derecho a la libertad de expresión, a la educación y a la privacidad.


La Web en sus inicios estaba constituida por páginas estáticas en formato HTML. A
esta era de la Web se le conoce como Web 1.0. El objetivo de los desarrolladores era
simplemente publicar información, romper la barrera de la inercia que impone lo
nuevo y comenzar a explotar al máximo este modo de comunicación más rápido. Las
tecnologías utilizadas en esta primera etapa fueron el lenguaje HTML y el protocolo
HTTP principalmente.


En la Web 1.5 las páginas eran más dinámicas, por ejemplo, eran generadas y
actualizadas desde bases de datos. Las aplicaciones Web eran más ricas gráficamente.
Una de las principales metas para todos los desarrolladores Web era obtener más
visitas de internautas. Es en esta era de la Web donde florecieron los sitios Web
llamados “punto-com” En la Web 1.5 se avanza en la socialización de la información, ya que gracias al surgimiento y desarrollo de distintas tecnologías se puede compartir vía Web grandes
volúmenes de información. La información compartida tiene un mejor formato y es
mucho más atractiva al usuario final, ya que se diversifica los tipos de recursos informativos a compartir y se nota un gran avance en la creación de recursos gráficos.



La Web 2.0 es la conceptualización de la tendencia observada en el desarrollo de aplicaciones y que distingue las aplicaciones actuales de las aplicaciones Web tradicionales. La Web 2.0 está orientada a la interacción, el encuentro y la colaboración de los usuarios finales

oNormal" style="mso-layout-grid-align: none; mso-pagination: none; text-autospace: none;"> Web 2.0 es compleja y está evolucionando constantemente, incluye el software de
servidor, sindicación de contenidos, protocolos de mensajes, navegadores basados en
estándares y aplicaciones para clientes. Se considera que una Web pertenece a la Web
2.0 si es lo suficientemente “abierta” para permitir fácilmente la introducción y
extracción de información por parte de los clientes finales. Así como deben existir
mecanismos que posibilite a los usuarios controlar su propia información.
La Web 2.0 no es precisamente una tecnología sino una actitud, una “manera de
hacer las cosas” que debemos tener presente los desarrolladores de aplicaciones Web
para así contribuir a una Internet de mayor calidad. La Web 2.0 es la era de las
aplicaciones Web a la que pertenecen aquellas que tengan como meta la participación
y cooperación del cliente final, es decir que tengan como centro al usuario
La Web 2.0 es la etapa que ha logrado más participación de la sociedad en su
creación y mantenimiento. Los distintos grupos sociales participan compartiendo y
confeccionando recursos Web. Esta etapa de la Web 2.0 es sustentada por un
basamento científico y técnico maduro. La alianza ciencia-técnica, que en este caso es
clave para el desarrollo de la Web, favorece la libre expresión de la espiritualidad

creadora del hombre, condición esencial para lograr la emancipación social
                

                 

domingo, 2 de abril de 2017


 Del trabajo de Gabriel Hernández Girbés "Efectos Visuales:Desarrollo y evolución a lo largo de la historia del cine” podemos llegar a las siguientes conclusiones


  • A lo largo de la historia del cine se han utilizado multitud de efectos visuales con el objetivo de asombrar, reducir la peligrosidad o disminuir los costes de representación de algunas escenas. Ante el crecimiento exponencial de los efectos visuales digitales (VFX) 
  • El efecto visual, proviene del efecto óptico y este, se refiere a cualquier ilusión producida en el sentido de la vista que nos lleva a percibir la realidad de una forma alterada.
  • La gran figura de George Méliès, tomó la técnica  de "frame to frame" para “hacer del cine un espectáculo” (Gutierrez Espada, Madrid, 1979, p.175). En su obsesión por asombrar, dio vida a objetos desde cohetes a títulos de crédito, llegando a ser considerado padre de los efectos especiales. 

  • Desde la década de los 40 a los 80 se usó el matte painting prácticamente en todas las producciones. Nos vale como ejemplo la película “Willow”  donde se recreó un mundo fantástico repleto de castillos que nada tenían que envidiar en términos de realismo a las producciones digitales actuales. 




  • Una técnica similar al matte painting es el proceso Schüfftan. Esta técnica debe su nombre a su creador Eugen Schüfftan, y su primera aplicación fue en “Metropolis” (1927) de Fritz Lang o El retorno del rey” (2003) de Peter Jackson. 





  • La edición de efectos con croma, (Cromakey) se compone de dos partes. La pantalla verde, y la creación digital que se implantara en el fondo. 



  • la noche americana es una técnica utilizada para simular una ambientación nocturna en una escena rodada a la luz del día. Consiste en filmar escenas durante el día utilizando un filtro en cámara, de color azul si se filma en color, o bien de color rojo si se utiliza película en blanco y negro, y subexponiendo la imagen, a modo de conseguir una imagen oscurecida y azulina, en su caso. De esta forma, se simula la noche y la luz de la luna. 


  • Los hermanos Fleischer crearon en 1914 el primer invento capaz de copiar el movimiento con la intención de crear personajes, el Rotoscopio,un artilugio que permitía dibujar sobre una proyección de los positivos de una película. Se colocaba un cristal sobre ella, y se dibujaba calcando en papel. 





  • En los años 70, se inició la creación de personajes computerizados. Como fase inicial, se aplicó la técnica tradicional del “rotoscoping”, utilizando espejos especiales. La imagen de los actores se superponía en la pantalla del ordenador, para a partir del video, crear una pose de personaje digital. El ordenador la referenciaba y creaba una animación fluida. Desde entonces la técnica ha seguido avanzando hasta el "motion capture"

martes, 28 de marzo de 2017

Algunas de las campañas publicitarias
que me han llamado la atención
por su originalidad

 la primera se trata de la primera cerveza negra elaborada con agua del mar

          


primer producto que propone no cambiar la hora en España

           



        

coca cola promocionando la película de 007


vOLKSWAGEN y su nuevo mando "CONNECT" 




                             La marca  unilevel  se asocia a a&b 
                        para crear los
                     "SUPERHOMES"




Campaña de Sansung incorporando a sus camiones nueva tecnología
que ayude a evitar accidentes en los adelantamientos de sus camiones
crea los Safety Trucks



La marca Worten utiliza las cookies que aparecen en nuestro ordenador 
para vender sus productos



Publicidad de Windows 10
donde nos enseña todas aquellas ventanas que han hecho historia

martes, 21 de marzo de 2017


¿A qué llamamos audiencia?


La audiencia es el conjunto de personas que consumen productos de los MCM y la finalidad de su medición es determinar el tamaño del conjunto de espectadores, clasificados a partir de diversas variables (sexo, clase social...), mostrando su composición.

Con la combinación de esos datos, se obtienen conclusiones sobre los hábitos de consumo frente a determinados programas y sobre el comportamiento del espectador en general, lo que interesa a las cadenas y a los anunciantes.
Utilizada como forma de establecer una estrategia de planificación de medios 
(elección del soporte, de la cadena o la franja horaria) para incluir los anuncios,
 haciendo que lleguen de la forma más eficaz y eficiente a los públicos.



Sirven como:


Instrumento de diagnóstico: muestra la acogida que ha tenido la programación.

Instrumento de predicción: los precedentes nos ayudan a predecir la audiencia que tendrán programas similares en circunstancias parecidas.

Instrumento de tasación: según el número de espectadores que consuman una inserción publicitaria se fijará el precio de ese espacio.

Instrumento de planificación: sirve para decidir qué programas deben continuar, eliminarse o modificarse 
 Las televisiones suelen seguir esta estrategia: mantener los programas cuya audiencia está asegurada, eliminar los que no tengan un número determinado de espectadores y colocar las emisiones en las franjas donde vaya a conseguir mayor cuota. 



                                       ¿cuando surgen?



La primera empresa que se dedicó a medir audiencias fue Nielsen en 1923 y lo hizo para radio. No sería hasta 1950 que empezaría a investigar las audiencias de televisión. 

En la actualidad, a nivel internacional destacan 

  • Nielsen (EEUU), 
  • AGB (UK), 
  • IBOPE (Sudamérica) y
  • Kantar Media (España). 
                                       
                                            

Si nos centramos en Kantar Media, encargada de hacer las mediciones de audiencia en televisión, hay que señalar que tiene instalados en España audímetros en 4.625 hogares,
(hay 18.000.000 de hogares en España)

los audímetros


Este aparato es el encargado de recoger la información sobre el consumo televisivo de los espectadores. Se trata de un receptor conectado al televisor y en el que cada miembro de la familia está diferenciado, gracias a la asignación concreta de un botón en el mando a distancia. 
De esta manera, el audímetro sabe quién está frente a la pantalla y cómo se comporta.



A su vez, todos estos aparatos representan los gustos de casi 10.000 personas que viven en esos hogares, y que conforman la muestra que se extrapola a los casi 45 millones de personas que viven en España, por aplicación estadística. 
De este modo, se supone que a partir de una determinada cifra de medición, los datos comienzan a repetirse una y otra vez, con lo cual, midiendo sólo la muestra, es posible obtener un resultado bastante aproximado de la tendencia, y por lo tanto, los datos se obtendrían extrapolando esa muestra a toda la población.
 El margen de error de estas mediciones está entre el 1 y el 5%.

    


Además de los audímetros, existen otros sistemas para medir las audiencias. Uno de los más conocidos es el Estudio General de Medios (EGM).


Se trata de un sondeo que selecciona, de la misma manera que los audímetros, una muestra representativa de la sociedad para entender cómo se comporta el global de la población.
 Para obtener estadísticos, los encargados de realizar el EGM realizan una serie de preguntas a este grupo de personas sobre su consumo televisivo diario, de un modo parecido a las encuestas electorales.

Por otra parte el televisor en el hogar ha dejado de ser el único dispositivo que se utiliza para ver la televisión: el ordenador, el móvil, la tableta o la videoconsola también pueden cumplir esa función.

domingo, 19 de marzo de 2017

La radio interactiva consiste en la exhibición de contenido auditivo dotado de las características propias del medio radiofónico a través de internet y de forma que cree un canal de comunicación con el oyente, donde este pueda participar e interactuar.

Según describe García González, A. en "De la radio interactiva a la radio transmedia: nuevas perspectivas para los profesionales del medio"
La radio se ve obligada a adaptar los contenidos, para no perder protagonismo entre otros medios. Y como consecuencia, la escucha de radio es cada vez más individualizada y participativa.
Además, se ha centrado eminentemente en el entorno local. La radio, gracias a Internet, tiene a su alcance la distribución internacional de contenidos de origen o de carácter local. No se trata del concepto “local” tal y como se entendía hasta hace relativamente pocos años. 
Se trata de una radio de proximidad que puede producirse en cualquier parte del mundo.

Toda la historia del fenómeno de la comunicación muestra el intento de reducir el tiempo transcurrido entre la producción del hecho y su difusión. La diligencia en disponer de los hechos para darlos a conocer y su efectiva difusión conguran la tendencia a la simultaneidad. 
En este sentido, la culminación del fenómeno de la comunicación colectiva se alcanza en los medios sincrónicos,que permiten una simultaneidad virtual entre el acontecer y su puesta a disposición de los destinatarios. Se trata del ideal de la comunicación colectiva
Un criterio de consumo del oyente actual es la obtención de la mejor información en el menor tiempo posible. 
Uno de los cambios más evidentes ha sido trasladar al oyente la facultad de organizar los contenidos y disponer libremente de ellos: elegir qué escuchar, a qué hora hacerlo, modi car aleatoriamente el orden de un informativo, rechazar determinadas informaciones... Presentar, en n, sus propias producciones, a partir de lo que la radio ofrece. 

Son cambios que modifican también la mentalidad de las audiencias. Los nuevos oyentes constituyen audiencias multitasking, es decir escuchan radio mientras navegan, o atienden el correo, participan en un chat, etc. 
Los nuevos oyentes de esta radio de elección controlan y personalizan el consumo de radio.



Por una parte, cada vez un número mayor de individuos es capaz de ofrecer in- formación, y a coste más bajo. Por otra, la escucha de radio se hace de manera personalizada: cada oyente organiza su propio playlist, o el orden en que quiere escuchar unas noticias.
De la misma manera cada vez son más abundantes los blogs, los podcast al mar- gen de la industria y los mashups (híbridos construidos como nuevos elementos a partir de producciones anteriores), como ocurre en el caso de YouTube o MySpace,



La verdadera potencia del cambio ha sido la interactividad que ha permitido a la radio intercambiar los roles de emisor y receptor. Y comentar, intervenir y a su vez contestar las demandas de los oyentes. De todas formas, todavía no se ha producido el cierre de circuito en el modelo radiofónico, dado que las intervenciones de respuesta al oyente son tímidas, pero es una vía abierta y potenciada por Internet. 
  

Anuncios interactivos

También sucede con los anuncios publicitarios que no se quedan en la simple transmisión del mensaje, sino que buscan una reacción y acción instantánea del radioescucha.
Como ejemplos de ello, la revista Digital Merca2.0 compartió tres ideas de anuncios radiales muy creativos que alcanzaron altos niveles de interactividad con la audiencia.
Uno fue el caso de la bebida energizante Red Bull y su campaña para promover su concurso de DJs en Sudáfrica. En su anuncio, los sonidos están mezclados de tal forma que el propio radioescucha puede manipularlos usando el control de balance entre las bocinas de un estéreo o un ordenador

          

domingo, 12 de marzo de 2017

En unos días empezaremos con la contrapublicidad, que es y como surge. este es uno de los videos que podéis encontrar en la red del surgimiento de los grafittis.
 Inicio de la guerrilla urbana y de la contrapublicidad



Publicidad asociativa, de emplazamiento y subliminal

EncUEntra por FeCha

Popular Posts