GESTION CIENCIA Y TECNOLOGIA

SISTEMAS  E INFORMATICA

 

1.       Tipos de licencias de software.

2.       Tipos de sistemas operativos.

3.       Tipos de servicios hosting.

4.       Efectos de las TICS en la educación

5.       Integrantes.

Licencias de software.

 

animado 1.jpg

Historia

 

Richard Stallman, creador de los conceptos Free Software, y fundador de la FSF.

Entre los años 60 y 70 del Siglo XX, el software no era considerado un producto sino un añadido que los vendedores de las grandes computadoras de la época (las mainframes) aportaban a sus clientes para que éstos pudieran usarlos. En dicha cultura, era común que los programadores y desarrolladores de software compartieran libremente sus programas unos con otros. Este comportamiento era particularmente habitual en algunos de los mayores grupos de usuarios de la época, como DECUS (grupo de usuarios de computadoras DEC). A finales de los 70, las compañías iniciaron el hábito de imponer restricciones a los usuarios, con el uso de acuerdos de licencia.

Allá por el 1971, cuando la informática todavía no había sufrido su gran boom, las personas que hacían uso de ella, en ámbitos universitarios y empresariales, creaban y compartían el software sin ningún tipo de restricciones.

Con la llegada de los años 80 la situación empezó a cambiar. Las computadoras más modernas comenzaban a utilizar sistemas operativos privativos, forzando a los usuarios a aceptar condiciones restrictivas que impedían realizar modificaciones a dicho software.

En caso de que algún usuario o programador encontrase algún error en la aplicación, lo único que podía hacer era darlo a conocer a la empresa desarrolladora para que esta lo solucionara. Aunque el programador estuviese capacitado para solucionar el problema y lo desease hacer sin pedir nada a cambio, el contrato le impedía que mejorase el software.

El mismo Richard Stallman cuenta que por aquellos años, en el laboratorio donde trabajaba, habían recibido una impresora donada por una empresa externa. El dispositivo, que era utilizado en red por todos los trabajadores, parecía no funcionar a la perfección, dado que cada cierto tiempo el papel se atascaba. Como agravante, no se generaba ningún aviso que se enviase por red e informase a los usuarios de la situación.

La pérdida de tiempo era constante, ya que en ocasiones, los trabajadores enviaban por red sus trabajos a imprimir y al ir a buscarlos se encontraban la impresora atascada y una cola enorme de trabajos pendientes. Richard Stallman decidió arreglar el problema, e implementar el envío de un aviso por red cuando la impresora se bloqueara. Para ello necesitaba tener acceso al código fuente de los controladores de la impresora. Pidió a la empresa propietaria de la impresora lo que necesitaba, comentando, sin pedir nada a cambio, qué era lo que pretendía realizar. La empresa se negó a entregarle el código fuente.

En ese preciso instante, Richard Stallman se vio en una encrucijada: debía elegir entre aceptar el nuevo software privativo firmando acuerdos de no revelación y acabar desarrollando más software privativo con licencias restrictivas, que a su vez deberían ser más adelante aceptadas por sus propios colegas.

Con este antecedente, en 1984, Richard Stallman comenzó a trabajar en el proyecto GNU, y un año más tarde fundó la Free Software Foundation (FSF).

Volver al inicio

 

Sistemas operativos.

 

sist oper.jpg

Tipos de Sistemas Operativos

Un sistema Operativo (SO) es en sí mismo un programa de computadora. Sin embargo, es un programa muy especial, quizá el más complejo e importante en una computadora. El SO despierta a la computadora y hace que reconozca a la CPU, la memoria, el tecla do, el sistema de vídeo y las unidades de disco.

Además, proporciona la facilidad para que los usuarios se comuniquen con la computadora y sirve de plataforma a partir de la cual se corran programas de aplicación.

Los sistemas operativos más conocidos son los siguientes:

1) DOS: El famoso DOS, que quiere decir Disk Operating System (sistema operativo de disco), es más conocido por los nombres de PC-DOS y MS-DOS. MS-DOS fue hecho por la compañía de software Microsoft y es en esencia el mismo SO que el PC-DOS.

La razón de su continua popularidad se debe al aplastante volumen de software disponible y a la base instalada de computadoras con procesador Intel.

Cuando Intel liberó el 80286, DOS se hizo tan popular y firme en el mercado que DOS y las aplicaciones DOS representaron la mayoría del mercado de software para PC. En aquel tiempo, la compatibilidad IBM, fue una necesidad para que los productos tuvieran éxito, y la "compatibilidad IBM" significaba computadoras que corrieran DOS tan bien como las computadoras IBM lo hacían.

Aún con los nuevos sistemas operativos que han salido al mercado, todavía el DOS es un sólido contendiente en la guerra de los SO.

2) Windows 3.1: Microsoft tomo una decisión, hacer un sistema operativo que tuviera una interfaz gráfica amigable para el usuario, y como resultado obtuvo Windows. Este sistema muestra íconos en la pantalla que representan diferentes archivos o programas, a los cuales se puede accesar al darles doble click con el puntero del mouse. Todas las aplicaciones elaboradas para Windows se parecen, por lo que es muy fácil aprender a usar nuevo software una vez aprendido las bases.

3) Windows 95: En 1995, Microsoft introdujo una nueva y mejorada versión del Windows 3.1. Las mejoras de este SO incluyen soporte multitareas y arquitectura de 32 bits, permitiendo así correr mejores aplicaciónes para mejorar la eficacia del trabajo.

4) Windows NT: Esta versión de Windows se especializa en las redes y servidores. Con este SO se puede interactuar de forma eficaz entre dos o más computadoras.

5) OS/2: Este SO fue hecho por IBM. Tiene soporte de 32 bits y su interfaz es muy buena. El problema que presenta este sistema operativo es que no se le ha dad el apoyo que se merece en cuanto a aplicaciones se refiere. Es decir, no se han creado muchas aplicaciones que aprovechen las características de el SO, ya que la mayoría del mercado de software ha sido monopolizado por Windows.

6) Mac OS: Las computadoras Macintosh no serían tan populares como lo son si no tuvieran el Mac OS como sistema operativo de planta. Este sistema operativo es tan amigable para el usuario que cualquier persona puede aprender a usarlo en muy poco tiempo. Por otro lado, es muy bueno para organizar archivos y usarlos de manera eficaz. Este fue creado por Apple Computer, Inc.

7) UNIX: El sistema operativo UNIX fue creado por los laboratorios Bell de AT&T en 1969 y es ahora usado como una de las bases para la supercarretera de la información. Unix es un SO multiusuario y multitarea, que corre en diferentes computadoras, desde supercomputadoras, Mainframes, Minicomputadoras, computadoras personales y estaciones de trabajo. Esto quiere decir que muchos usuarios puede estar usando una misma computadora por medio de terminales o usar muchas de ellas.

 

BIBLIOGRAFIA

Computer Concepts, June Jamrich Parsosns, Brief Edition, ITP.

.

Volver al inicio

 

Servicios hosting.

 

hosting.bmp

Hosting (alojamiento o también conocido como hospedaje web, alojamiento web, web site hosting, web hosting o webhosting) es un negocio que consiste en alojar, servir, y mantener archivos para uno o más sitios web. Más importante que el espacio del ordenador que se proporciona para los archivos del sitio web es la conexión rápida a Internet.

La mayoría de los servicios de hosting ofrecen conexiones que para una persona individual resultarían muy costosas. Usar un servicio de hosting permite que muchas compañías compartan el coste de una conexión rápida a Internet para el acceso a los archivos de sus sitios web.

Geocities ofrece a sus visitantes registrados espacio para un sitio web gratis, aunque este tipo de hosting web gratuito suele ser muy básico.

Algunas compañías de hosting describen sus servicios como hosting virtual. Hosting virtual generalmente implica que sus servicios serán transparentes y que cada sitio web tendrá su propio alojamiento de dominio y sus propias direcciones de email. En la mayoría de los casos, el hosting y el hosting virtual son sinónimos. Algunas compañías de hosting permiten a sus usuarios tener su propio servidor virtual, con la apariencia de que el usuario está controlando un servidor dedicado enteramente a su sitio web.

Los alojamientos dedicados consisten en el uso exclusivo de todo un servidor por un único cliente, mientras que en los alojamientos compartidos varios clientes comparten un servidor. Solamente los sitios web con mucho tráfico requieren el hosting dedicado. Muchas compañías compran sus propios servidores y los colocan en un sitio que proporcione acceso rápido a Internet. Esta práctica se llama colocación.

Servicios de hosting

Hay una amplia variedad de servicios de hosting. El más básico es el hosting de archivos (alojamiento web u hospedaje web), donde se pueden alojar las páginas de los sitios web y otros archivos vía ftp o una interfaz web. Los archivos se muestran en la web tal cual o sin mucho procesado. Muchos proveedores de Internet ofrecen este servicio de forma gratuita a sus clientes. El alojamiento web es normalmente gratuito, patrocinado por anunciantes, o barato.

Normalmente el alojamiento web sólo es suficiente para páginas web personales. Un sitio web complejo necesita un paquete más avanzado que proporcione soporte para bases de datos y plataformas de desarrollo de aplicaciones (ej. PHP, Java, y ASP. NET). Estas permiten que los clientes escriban o instalen scripts para aplicaciones como foros y formularios. Para el comercio electrónico también se requiere SSL.

El proveedor de hosting puede también proporcionar un interfaz web (ej. panel de control) para manejar el servidor web e instalar los scripts así como otros servicios como e-mail.

Tipos de hosting

El hosting se puede dividir en varios tipos generales:

Volver al inicio

TICS en la educación

 

images.jpg

Historia

Se pueden considerar las Tecnologías de Información y Comunicación (TIC) un concepto dinámico.[2] Por ejemplo, a finales del siglo XIX el teléfono podría ser considerado una nueva tecnología según las definiciones actuales. Esta misma definición podría aplicarse a la televisión cuando apareció y se popularizó en la década de los 50 del siglo pasado. No obstante esto, hoy no se pondrían en una lista de TIC y es muy posible que actualmente los ordenadores ya no puedan ser calificados de nuevas tecnologías. A pesar de esto, en un concepto amplio, se puede considerar que el teléfono, la televisión y el ordenador forman parte de lo que se llama TIC, tecnologías que favorecen la comunicación y el intercambio de información en el mundo actual.

Después de la invención de la escritura, los primeros pasos hacia una sociedad de la información estuvieron marcados por el telégrafo eléctrico, después el teléfono y la radiotelefonía, la televisión, Internet. La telefonía móvil y el GPS han asociado la imagen al texto y a la palabra «sin cables», Internet y la televisión son accesibles en el teléfono móvil que es también una máquina de hacer fotos.[3]

El acercamiento de la informática y de las telecomunicaciones, en el último decenio del siglo XX se han beneficiado de la miniaturización de los componentes, permitiendo producir aparatos «multifunciones» a precios accesibles, desde los años 2000.

Los usos de las TIC no paran de crecer y de extenderse, sobre todo en los países ricos, con el riesgo de acentuar localmente la Brecha digital,[4] y social y la diferencia entre generaciones. Desde la agricultura de precisión y la gestión del bosque, a la monitorización global del medio ambiente planetario o de la biodiversidad, a la democracia participativa (TIC al servicio del desarrollo sostenible) pasando por el comercio, la telemedicina, la información, la gestión de múltiples bases de datos, la bolsa, la robótica y los usos militares, sin olvidar la ayuda a los discapacitados (ciegos que usan sintetizadores vocales avanzados), los TIC tienden a tomar un lugar creciente en la vida humana y el funcionamiento de las sociedades.[5]

Algunos temen también una pérdida de libertad individual (efecto intrusismo creciente de la publicidad dirigida y no deseada...). Los prospectivistas,[6] piensan que las TIC tendrían que tener un lugar creciente y podrían ser el origen de un nuevo paradigma de civilización.

TIC : Evolución de los ratios de penetración de algunos servicios a la Unión Europea[7]

Servicio

Verano 2006 (EU25)

Verano 2007 (EU27)

Verano 2008 (EU27)

Total acceso teleférico

97

95

95

Acceso telefónico fijo

78

72

70

Acceso telefónico móvil

80

81

83

Acceso telefónico fijo y móvil

61

58

57

Acceso telefónico fijo, pero no móvil

18

22

24

Acceso telefónico móvil, pero no fijo

18

15

14

Ordenador personal

52

54

57

Acceso a Internet desde casa

40

42

49

Acceso a Banda ancha

23

28

36

ADSL

19

22

29

Módem cable

4

6

7

Acceso a Banda estrecha

16

12

10

Router Wi-Fi

11

14

22

Total Televisión

52

54

57

Televisión terrestre analógica

50

45

51

Televisión digital terrestre (TDT)

5

7

12

Televisión por cable

33

35

34

Satélite

22

21

22

Paquetes de servicio

18

20

29

Un concepto nuevo

A nadie sorprende estar informado minuto a minuto, comunicarse con gente del otro lado del planeta, ver el video de una canción o trabajar en equipo sin estar en un mismo sitio. Con una rapidez impensada las Tecnologías de la información y comunicación son cada vez más, parte importante de nuestras vidas. Este concepto que también se llama Sociedad de la información, se debe principalmente a un invento que empezó a formarse hace unas cuatro décadas: Internet. Todo se gestó como parte de la Red de la Agencia de Proyectos de Investigación Avanzada (ARPANET) creada por el Departamento de Defensa de los Estados Unidos de América, pensada para comunicar los diferentes organismos del país. Sus principios básicos eran: ser una red descentralizada con múltiples caminos entre dos puntos, y que los mensajes estuvieran divididos en partes que serían enviados por caminos diferentes. La presencia de diversas universidades e institutos en el desarrollo del proyecto hizo que se fueran encontrando más posibilidades de intercambiar información. Se crearon los correos electrónicos, los servicios de mensajería y las páginas web. Pero no es hasta mediados de la década de los noventa -cuando ya había dejado de ser un proyecto militar- que se da la verdadera explosión de Internet. Y a su alrededor todo lo que conocemos como Tecnologías de la información y comunicación.[8]

El desarrollo de Internet ha significado que la información esté ahora en muchos sitios. Antes la información estaba concentrada, la daban los padres, los maestros, los libros. La escuela y la universidad eran los ámbitos que concentraban el conocimiento. Hoy se han roto estas barreras y con Internet hay más acceso a la información. El principal problema, pero, es la calidad de esta información. También se ha agilizado el contacto entre personas, y también entre los que hacen negocios. No hace falta moverse para cerrar negocios en diferentes ciudades del mundo o para realizar transacciones en cualquier lugar con un sencillo clic. Hasta muchos políticos tienen su blog o vídeos en dejando claro que las TIC en cuarenta años -especialmente los últimos diez (2000-2010)- han modificado todos los aspectos de la vida.[9]

En parte, estas nuevas tecnologías son inmateriales, ya que la materia principal es la información; permiten la interconexión y la interactividad; son instantáneas; tienen elevados parámetros de imagen y sonido. Al mismo tiempo las nuevas tecnologías suponen la aparición de nuevos códigos y lenguajes, la especialización progresiva de los contenidos sobre la base de la cuota de pantalla (rompiendo la cultura de masas) y dando lugar a la realización de actividades inimaginables en poco tiempo.[10]

El concepto presenta dos características típicas de las nociones nuevas:

El advenimiento de Internet y principalmente del Web como medio de comunicación de las masas y el éxito de los blogs, de wikis o de tecnologías Peer-to-peer confieren a los TIC una dimensión social. en La gran confusión , habla de « hiperinformación» para subrayar el impacto antropológico de las nuevas tecnologías.[12] Numerosos internautas consideran Internet como una tecnología de relación.

 

Las tecnologías

Las TIC conforman el conjunto de recursos necesarios para manipular la información y particularmente los ordenadores, programas informáticos y redes necesarias para convertirla, almacenarla, administrarla, transmitirla y encontrarla.
Se puede reagrupar las TIC según:

Las redes

A continuación se analizan las diferentes redes de acceso disponibles actuales.

Telefonía fija

El método más elemental para realizar una conexión a Internet es el uso de un módem en una acceso telefónico básico. A pesar que no tiene todas las ventajas características de la banda ancha, ha sido el punto de inicio para muchos internautas, y es una alternativa básica para zonas de menor poder adquisitivo. Una materia utilizada en el tecnológico de Aguascalientes ahora con esta nueva carrera

En casi todos los países de la unión europea, el grado de disponibilidad de hogares con línea telefónica es muy alto, excepto en Austria, Finlandia y Portugal. En estos países es muy fuerte el efecto de substitución de la línea fija por una móvil.[13] De todas maneras, en España, el acceso a Internet por la red telefónica básica (banda estrecha) prácticamente ha desaparecido. En el año 2003 la mitad de las conexiones a Internet eran de banda estrecha. En el 2009, el 97% de los accesos a Internet son ya por la banda ancha. Casi el 95% es superior o igual a 1 Mbps.[14]

Banda ancha

http://upload.wikimedia.org/wikipedia/commons/thumb/d/d3/2005_Broadband_Subscribers.png/250px-2005_Broadband_Subscribers.png

http://bits.wikimedia.org/skins-1.5/common/images/magnify-clip.png

Mapa de la distribución de clientes de banda ancha del 2005.

La banda ancha originariamente hacía referencia a la capacidad de acceso a Internet superior a los de un acceso analógico (56 kbps en un acceso telefónico básico o 128 kbps en un acceso básico RDSI). A pesar que el concepto varia con el tiempo en paralelo a la evolución tecnológica.Según la Comisión federal de Comunicaciones de los EEUU (FCC) se considera banda ancha el acceso a una velocidad igual o superior a los 200 kbps, como mínimo en un sentido. Para la Unión Internacional de telecomunicaciones el umbral se sitúa en los 2 Mbps.[15]

Según los países, se encuentran diferentes tecnologías: la llamada FTTH (fibra óptica hasta el hogar), cable (Introducido en principio por distribución de TV), el satélite, el rDSL (soportado en la red telefónica tradicional) y otros en fase de desarrollo. El modelo de desarrollo de la conectividad en cada país ha sido diferente, y las decisiones de los reguladores de cada país han dado lugar a diferentes estructuras de mercado.

En el gráfico se ve la evolución del acceso a Internet, desde 1999 hasta el 2007, y como crece el componente de la banda ancha.

Como ya se ha dicho, Internet está evolucionando muy rápidamente con un gran incremento de contenidos pesados (videos, música...) Por este motivo, los operadores se están encontrando en muchas ocasiones que las redes tradicionales no tienen suficiente capacidad para soportar con niveles de calidad adecuada el tránsito que se comienza a generar, y además el problema crecerá con el tiempo, dado las actuales proporciones de crecimiento. Algunos operadores de países de la OCDE están actualizando sus redes, llevando fibra hasta los hogares (FTTH- Fibre-to-the-home) y fibra a los edificios (FTTB- Fibre-to-the-building). En diciembre de 2007, el número de accesos a banda ancha mediante fibra suponía ya un 9% del total a los países de la OCDE, un punto porcentual más que un año anterior. El ADSL continúa mostrando una superioridad con un 60% de las líneas de banda ancha y el cable mantiene ls segunda posición con un 29%..

 

Acceso a Internet: Evolución y distribución en la Europa del los 15.

Este desarrollo de la tecnología de la fibra óptica no es uniforme entre los diferentes países de la OCDE. Son los países asiáticos (Japón y Corea del Sur con un 44,5% y un 39,2% de las conexiones de banda ancha con esta tecnología), después de crecimientos espectaculares de 14,5 puntos y 15 puntos porcentuales respectivamente en año y medio, que absorben prácticamente todo el crecimiento de este tipo de tecnología; en Europa con un 1% de las conexiones, justo ha empezado la renovación de la tecnología actual por la fibra óptica.

Durante el año 2007, en los países de la Unión Europea el porcentaje de líneas ADSL sobre el total de accesos de banda ancha era del 80,3%. Juega a favor de las los costes de implantación, y el desarrollo del ADSL 2+, de más gran capacidad y abasto.[16]

Los motivos para preferir conexiones de banda ancha son el no tener la línea telefónica ocupada, la velocidad del acceso y la posibilidad de estar siempre conectado. Así como el acceso a nuevos servicios relacionados con la fotografía, la descarga de música o vídeos. De menor manera, en el hogar, el equipo de conexión a internet (módem/router) permite crear un entorno de red.

Volver al inicio

 

Integrantes.

 

equipo.jpg

MIGUEL VALOIS ASPRILLA

RENELMO RODRIGUEZ CORDOBA

LEISER MORENO

RUBEN DARIO GARCIA PEREZ

Docente: Franklin Castro

Municipio de Puerto Nare

Grupo : 3 Serviez

UNVERSIDAD DE SANTANDER

Fecha: 16 de Julio de 2.010