domingo, 16 de agosto de 2015

DEFINICION DE TEORIA

Una teoría es un sistema lógico-deductivo constituido por un conjunto de hipótesis, un campo de aplicación (de lo que trata la teoría, el conjunto de cosas que explica) y algunas reglas que permitan extraer consecuencias de las hipótesis de la teoría. En general las teorías sirven para confeccionar modelos científicos que interpreten un conjunto amplio de observaciones, en función de los axiomas o principios, supuestos y postulados, de la teoría.

DEFINICION DE SISTEMA

Un sistema es un objeto complejo cuyos componentes se relacionan con al menos algún otro componente; puede sermaterial o conceptual. Todos los sistemas tienen composición, estructura y entorno, pero sólo los sistemas materiales tienen mecanismo, y sólo algunos sistemas materiales tienen figura (forma).

CARACTERISTICAS DE LOS SISTEMAS

Un sistema es un conjunto de objetos unidos por alguna forma de interacción o
Interdependencia. Cualquier conjunto de partes unidas entre sí puede ser considerado un sistema, desde que las relaciones entre las partes y el comportamiento del todo sea el foco de atención. Un conjunto de partes que se atraen mutuamente (como el sistema solar), o un grupo de personas en una organización, una red industrial, un circuito eléctrico, un computador o un ser vivo pueden ser visualizados como sistemas.
Realmente, es difícil decir dónde comienza y dónde termina determinado sistema. Los límites (fronteras) entre el sistema y su ambiente admiten cierta arbitrariedad. El propio universo parece estar formado de múltiples sistema que se compenetran. Es posible pasar de un sistema a otro que lo abarca, como también pasar a una versión menor contenida en él.


De la definición de Bertalanffy, según la cual el sistema es un conjunto de unidades recíprocamente relacionadas, se deducen dos conceptos: el propósito(u objetivo) y el de globalizo(o totalidad. Esos dos conceptos reflejan dos características básicas en un sistema. Las demás características dadas a continuación son derivan de estos dos conceptos.

a) Propósito u objetivo:
Todo sistema tiene uno o algunos propósitos u objetivos. Las unidades o elementos (u
Objetos. , como también las relaciones, definen una distribución que trata siempre de alcanzar un objetivo.

b)Globalismo o totalidad: todo sistema tiene una naturaleza orgánica, por la cual una acción que produzca cambio en una de las unidades del sistema, con mucha probabilidad producirá cambios en todas las otras unidades de éste. En otros términos, cualquier estimulación en cualquier unidad del sistema afectará todas las demás unidades, debido a la relación existente entre ellas. El efecto total de esos cambios o alteraciones se presentará como un ajuste del todo al sistema. El sistema siempre reaccionará globalmente a cualquier estímulo producido en cualquier parte o unidad. Existe una relación de causa y efecto entre las diferentes partes del sistema. Así, el Sistema sufre cambios y el ajuste sistemático es continuo. De los cambios y de los ajustes continuos del sistema se derivan dos fenómenos el de la entropía y el de la homeostasia.

CLASIFICACION DE LOS SISTEMAS

SEGÚN SU RELACION CON EL MEDIO AMBIENTE

Abiertos:

Sistemas que intercambian materia, energía o información con el ambiente. Ejemplo: célula.

Cerrados:

Sistemas que no intercambian materia, energía o información con el ambiente. Ejemplos: El universo.

La clasificación de sistema cerrado es netamente conceptual pues en la práctica todo se encuentra comunicado con elementos externos.



SEGÚN SU NATURALEZA

Concretos:

Sistema físico o tangible. Ejemplos: Equipos de sonidos

Abstractos:

Sistemas simbólicos o conceptuales. Ejemplo: Sistema sexagesimal.

sábado, 15 de agosto de 2015

DEFINICION TEORIA GENERAL DE SISTEMAS


Es un método que nos permite unir y organizar los conocimientos con la intención de una mayor eficacia de acción.

Engloba la totalidad de los elementos del sistema estudiado así como las interacciones que existen entre los elementos y la interdependencia entre ambos.

La Teoría General de Sistemas fue concebida por BERTALANFFY en la década de 1940, con el fin de constituir un modelo práctico para conceptualizar los fenómenos que la reducción mecanicista de la ciencia clásica no podía explicar. En particular, la teoría general de sistemas parece proporcionar un marco teórico unificador tanto para las ciencias naturales como para las sociales, que necesitaban emplear conceptos tales como "organización", "totalidad", globalidad e "interacción dinámica; lo lineal es sustituido por lo circular, ninguno de los cuales era fácilmente estudiable por los métodos analíticos de las ciencias puras. Lo individual perdía importancia ante el enfoque interdisciplinario.

El mecanicismo veía el mundo seccionado en partes cada vez más pequeñas, la teoría de los sistemas veía la realidad como estructuras cada vez más grandes.
La Teoría General de Sistemas, que había recibido influencias del campo matemático (teoría de los tipos lógicos y de grupos) presentaba un universo compuesto por acumulos de energía y materia (sistemas), organizados en subsistemas e interrelacionados unos con otros. Esta teoría aplicada a la psiquiatría, venía a integrar los enfoques biológicos, dinámicos y sociales, e intentaba, desde una perspectiva global, dar un nuevo enfoque al diagnóstico, a la psicopatología y a la terapéutica.

HISTORIA TEORIA GENERAL DE SISTEMAS


La idea de una " teoría general de los sistemas " fue introducida por Bertalanffy antes de la cibernética, la ingeniería de sistemas y el surgimiento de campos afines.


En una obra preliminar en el terreno de la teoría general de los sistemas, Köhler planteó el postulado de una teoría de los sistemas encaminada a elaborar las propiedades más generales de los sistemas inorgánicos, en comparación con los orgánicos, hasta cierto punto, al encuentro de esta exigencia salió la teoría de los sistemas abiertos. La obra de Lotka (1925) fue la que más cerca llegó del objetivo. La verdad es que Lotka se ocupó de un concepto general de los sistemas (sin restringirse como Köhler a sistemas de la física), interesado en problemas de poblaciones más que en problemas biológicos de organismos individuales. Concibió las comunidades como sistemas, sin dejar de ver en el individuo una suma de células.

No obstante, la necesidad y factibilidad de un enfoque de sistemas no fue evidente hasta hace poco. Resultó por necesidad del hecho de que el esquema mecanicista de vías casuales aislables y el tratamiento merista resultaban insuficientes para enfrentarse a problemas prácticos planteados por la tecnología moderna.

Bertalanffy abogó por una concepción organísmica en biología que hiciera hincapié en la consideración del organismo como un todo o sistema y viese el objetivo principal de las ciencias biológicas en el descubrimiento de los principios de organización a sus diversos niveles.

viernes, 14 de agosto de 2015

AUTORES DE LA TGS

A continuacion se listan las fechas y los autores que contribuyeron en el fundamento del termino Teoria General de Sistemas:

WOLFGANG KÖHLER 1924-1927


Köhler planteó el postulado de una teoría de los sistemas encaminada a elaborar las propiedades más generales de los sistemas inorgánicos, en comparación con los orgánicos, hasta cierto punto, al encuentro de esta exigencia salió la teoría de los sistemas abiertos.






ALFRED JAMES LOTKA 1925



La verdad es que Lotka se ocupó de un concepto general de los sistemas (sin restringirse como Köhler a sistemas de la física), interesado en problemas de poblaciones más que en problemas biológicos de organismos individuales. Concibió las comunidades como sistemas, sin dejar de ver en el individuo una suma de células.





WALTER BRADFORD CANNON 1929-1932



El concepto de Homeostasis fue elaborado por el fisiólogo estadounidense Cannon.Este término trasciende a la biología para hacer referencia a la característica de cualquier sistema, ya sea abierto o cerrado, que le permite regular el ambiente interno para mantener una condición estable. La estabilidad es posibilitada por distintos mecanismos de autorregulación y diversos ajustes dinámicos.






LUDWIG VON BERTALANFFY 1940



La teoría de Bertalanffy supuso un salto de nivel lógico en el pensamiento y la forma de mirar la realidad que influyó en la psicología y en la construcción de la nueva teoría sobre la comunicación humana. 










JOHN VON NEUMANN Y OSKAR MORGENSTERN 1947


Neumann y Morgenstern crearon la teoría de juegos que es un área de la matemática aplicada que utiliza modelos para estudiar interacciones en estructuras formalizadas de incentivos (los llamados «juegos») y llevar a cabo procesos de decisión. Sus investigadores estudian las estrategias óptimas así como el comportamiento previsto y observado de individuos en     juegos. Tipos de interacción aparentemente
distintos pueden, en realidad, presentar                                                                                          estructura de incentivo similar y, por lo                                                                                            tanto, se puede representar mil veces                                                                                            conjuntamente un mismo juego.





NORBERT WIENER 1948

Norbert Wiener fue un matemático estadounidense, conocido como el fundador de la cibernética.La cibernética es el estudio interdisciplinario de la estructura de los sistemas reguladores.En términos técnicos, se centra en funciones de control y comunicación: ambos fenómenos externos e internos del/al sistema. Esta capacidad es natural en los organismos                                                                                          vivos y se ha imitado en máquinas y 
                                                                                   organizaciones.





CLAUDE SHANNON Y WARREN WEAVER 1949


La teoría de la información, es una propuesta teórica presentada por Shannon y Weaver. Esta teoría está relacionada con las leyes matemáticas que rigen la transmisión y el procesamiento de la información y se ocupa de la medición de la información y de la representación de la misma, así como también de la capacidad de los sistemas de comunicación para transmitir y procesar información.





AMERICAN ASOCIATION FOR THE ADVANCEMENT OF SCIENCE 1954



Nace el proyecto de la sociedad AAAS dedicada al estudio de los sistemas, sus principales objetivos se orientaron a:

- Isomorfosis [conceptos, leyes, modelos].
- Modelos teóricos en campos que no lo tienen.
- Minimizar la repetición de esfuerzo teórico en diferentes campos.
- Promover la unidad de ciencia.

jueves, 13 de agosto de 2015

SINERGIA

La sinergia comúnmente refleja un fenómeno por el cual actúan en conjunto, varios factores, o varias influencias, observándose así un efecto además del que hubiera podido esperarse operando independientemente, dado por la concausalidad a los efectos en cada uno. En estas situaciones, se crea un efecto extra debido a la acción conjunta o solapada, que ninguno de los sistemas hubiera podido generar en caso de accionar aisladamente.

En el lenguaje corriente, el término tiene una connotación positiva, y es utilizado para señalar un resultado más favorable cuando varios elementos de un sistema o de una organización actúan concertadamente. Más prosaicamente, se entiende que hay sinergia positiva cuando el resultado es superior a la suma de los resultados de cada elemento o de cada parte actuando aisladamente. Esto es resumido muy simplemente con el aforismo uno y uno hacen tres.

miércoles, 12 de agosto de 2015

HOLISMO

La Concepción Científica Holística Configuracional constituye el apartado teórico esencial, que desde el punto de vista epistemológico permite comprender e interpretar los procesos y fenómenos de la naturaleza, la sociedad y el pensamiento estudiados por los sujetos a partir del sistema categorial que le es intrínseco, desde el cual se logra redescubrir la esencia de los objetos investigados, pudiéndose revelar la esencia de las configuraciones, como síntesis de orden superior, y las estructuras de relaciones que denotan la existencia de dichos procesos en su complejidad y a la vez holismo.

Las categorías de naturaleza holística y compleja que están en el sustento de la teoría son las siguientes:
- Configuraciones.
- Dimensiones.
- Eslabones.
- Estructura de relaciones.

martes, 11 de agosto de 2015

RECURSIVIDAD

El concepto de recursividad es un concepto muy abstracto y complejo que tiene que ver tanto con la lógica como también con la matemática y otras ciencias. Podemos definir a la recursividad como un método de definir un proceso a través del uso de premisas que no dan más información que el método en sí mismo o que utilizan los mismos términos que ya aparecen en su nombre, por ejemplo cuando se dice que la definición de algo es ese algo mismo.

La recursividad tiene como característica principal la sensación de infinito, de algo que es continuo y que por tanto no puede ser delimitado en el espacio o el tiempo porque se sigue replicando y multiplicando de manera lógica y matemática. Así, es común encontrar casos de recursividad por ejemplo en imágenes de espejos que hacen que la imagen sea replicada al infinito, una dentro de otra hasta que deja de verse pero no por eso deja de exisitr. Otro caso típico de recursividad en las imágenes es cuando encontramos una publicidad en la que el objeto tiene la propaganda de sí mismo en su etiqueta y asi al infinito, o cuando una persona está sosteniendo una caja de un producto en cuya etiqueta aparece esa misma persona sosteniendo el mismo producto y así hasta el infinito. En estos casos, la recursividad pasa por el hecho de que se busca definir algo con lo misma información que ya se tiene.

lunes, 10 de agosto de 2015

ATRIBUTO

En computación, un atributo es una especificación que define una propiedad de un Objeto, elemento o archivo. También puede referirse o establecer el valor específico para una instancia determinada de los mismos.

Sin embargo, actualmente, el término atributo puede y con frecuencia se considera como si fuera una propiedad dependiendo de la tecnología que se use.

Para mayor claridad, los atributos deben ser considerados más correctamente como metadatos. Un atributo es con frecuencia y en general una característica de una propiedad.

Un buen ejemplo es el proceso de asignación de valores XML a las propiedades (elementos). Tenga en cuenta que el valor del elemento se encuentra antes de la etiqueta de cierre (por separado), no en el propio elemento. El mismo elemento puede tener una serie de atributos establecidos (Nombre = "estoesunapropiedad").

Si el elemento en cuestión puede ser considerado una propiedad (Nombre_Cliente) de otra entidad (digamos "cliente"), el elemento puede tener cero o más atributos (propiedades) de su propio (Nombre_Cliente es de Tipo = "tipotexto").

domingo, 9 de agosto de 2015

OBJETO

En filosofía un objeto es aquello que puede ser observado, estudiado y aprendido, en contraposición a la representación abstracta de ese objeto que se crea en la mente a través del proceso de generalización. Un objeto en POO representa alguna entidad de la vida real, es decir, alguno de los objetos que pertenecen al negocio con que estamos trabajando o al problema con el que nos estamos enfrentando, y con los que podemos interactuar. A través del estudio de ellos se adquiere el conocimiento necesario para, mediante la abstracción y la generalización, agruparlos según sus características en conjuntos. Estos conjuntos determinan las clases de objetos con las que estamos trabajando. Primero existen los objetos; luego aparecen las clases en función de la solución que estemos buscando. Ésta es la forma más común de adquirir conocimientoaunque no es la única. En ocasiones, cuando el observador es un experto del negocio (o del problema), el proceso puede ser a la inversa y comenzar el análisis en una base teórica abstracta, sustentada por el conocimiento previo que da lugar primeramente a clases de objetos que satisfagan las necesidades de la solución.

Los conceptos a continuación son parte de la base teórica de la idea de objeto y clase utilizados en la POO. Los objetos tienen características fundamentales que nos permiten conocerlos mediante la observación, identificación y el estudio posterior de su comportamiento; estas características son:
Identidad
Comportamiento
Estado

sábado, 8 de agosto de 2015

SUBSISTEMA

Un subsistema es un sistema que es parte de otro sistema mayor (suprasistema o supersistema). En otras palabras, un subsistema es un conjunto de elemento interrelacionados que, en sí mismo, es un sistema, pero a la vez es parte de un sistema superior. Un sistema puede estar constituido por múltiples partes y subsistemas. Jerarquía: subsistema, sistema y suprasistema En teoría de sistemas, los niveles de organización (o jerarquías) se refieren al orden en distintos niveles de organización de los sistemas más simples a los más complejos; por ejemplo, la identificación de un subsistema, dentro de un sistema, dentro de un suprasistema. Un ejemplo práctico en informática: el subsistema "memoria RAM", contenido en el sistema "placa madre", contenido en el supersistema "computadora".

viernes, 7 de agosto de 2015

FRONTERAS DEL SISTEMA

En teoría de sistema, la frontera o límite de un sistema es una línea (real y/o conceptual) que separa el sistema de su entorno o suprasistema. La frontera de un sistema define qué es lo que pertenece al sistema y qué es lo que no. Lo que no pertenece al sistema puede ser parte de su suprasistema o directamente no ser parte. Establecer el límite de un sistema puede ser sencillo cuando hay límites físicos reales y se tiene bien en claro cuál es el objetivo del sistema a estudiar. Por ejemplo, el sistema digestivo humano incluye solo los órganos que procesan la comida. En cambio los límites son más difíciles de establecer cuando no es claro el objetivo o se trata de un sistema lógico o conceptual. Las fronteras de los sistemas también nos permiten establecer jerarquías entre subsistemas, sistemas y supersistemas.

jueves, 6 de agosto de 2015

ENTRADAS Y SALIDAS

Una entrada es, en el campo de la informática, una serie de datos que es recibida por un determinado sistema para su posterior procesamiento. Este concepto siempre aparece vinculado con la salida, que supone la presentación de la información para que el usuario haga uso de ésta según lo necesite.

La salida en informática es el proceso de transmitir la información por un objeto (el uso de verbo). Esencialmente, es cualquier dato que sale de un sistema de ordenador. Esto en forma podría ser impreso el papel, de audio, de vídeo. En la industria médica esto podría incluir exploraciones de CT o rayos X. Típicamente en la informática, los datos entran por varias formas (la entrada) en un ordenador, los datos a menudo son manipulados, y luego la información es presentada a un humano (la salida).

miércoles, 5 de agosto de 2015

PROCESO

Un proceso puede informalmente entenderse como un programa en ejecución. Formalmente un proceso es "Una unidad de actividad que se caracteriza por la ejecución de una secuencia de instrucciones, un estado actual, y un conjunto de recursos del sistema asociados".

Para entender lo que es un proceso y la diferencia entre un programa y un proceso, A. S. Tanenbaum propone la analogía "Un científico computacional con mente culinaria hornea un pastel de cumpleaños para su hija; tiene la receta para un pastel de cumpleaños y una cocina bien equipada con todos los ingredientes necesarios, harina, huevo, azúcar, leche, etcétera." Situando cada parte de la analogía se puede decir que la receta representa el programa (el algoritmo), el científico computacional es el procesador y los ingredientes son las entradas del programa. El proceso es la actividad que consiste en que el científico computacional vaya leyendo la receta, obteniendo los ingredientes y horneando el pastel.

Cada proceso tiene su contador de programa, registros y variables, aislados de otros procesos, incluso siendo el mismo programa en ejecución 2 veces. Cuando este último caso sucede, el sistema operativo usa la misma región de memoria de código, debido a que dicho código no cambiará, a menos que se ejecute una versión distinta del programa.

Los procesos son gestionados por el sistema operativo y están formados por:
Las instrucciones de un programa destinadas a ser ejecutadas por el microprocesador.
Su estado de ejecución en un momento dado, esto es, los valores de los registros de la unidad central de procesamiento para dicho programa.
Su memoria de trabajo (memoria crítica), es decir, la memoria que ha reservado y sus contenidos.
Otra información que permite al sistema operativo su planificación.

martes, 4 de agosto de 2015

RETROALIMENTACION

La retroalimentación es un elemento que se utiliza constantemente en la comunicación y que puede favorecer u obstaculizar el aprendizaje. La retroalimentación consiste en la información que se proporciona a otra persona sobre su desempeño con intención de permitirle reforzar sus fortalezas y superar sus deficiencias.

La retroalimentación puede consistir en:


• Información traducida: como cuando se entregan calificaciones.
• Información correctiva: como las recomendaciones que se incluyen en los exámenes o trabajos escritos de los estudiantes con el fin de que puedan mejorarlos en el futuro.
• Información inmediata: como cuando el profesor explica un concepto y observa los rostros de los estudiantes y percibe confusión en ellos.
Información diferida: como cuando se informa del desempeño únicamente al final del curso.
• La retroalimentación según su función puede ser:
• Positiva: implica proporcionar información sobre logros obtenidos o sobre los cambios benéficos que el estudiante muestra en su desempeño.
• Negativa: se orienta a ayudar al estudiante a corregir hábitos o conductas inapropiadas.

domingo, 2 de agosto de 2015

ENTROPIA

En el ámbito de la teoría de la información la entropía, también llamada entropía de la información y entropía de Shannon (en honor a Claude E. Shannon), mide la incertidumbre de una fuente de información.

La entropía también se puede considerar como la cantidad de información promedio que contienen los símbolos usados. Los símbolos con menor probabilidad son los que aportan mayor información; por ejemplo, si se considera como sistema de símbolos a las palabras en un texto, palabras frecuentes como "que", "el", "a" aportan poca información, mientras que palabras menos frecuentes como "corren", "niño", "perro" aportan más información. Si de un texto dado borramos un "que", seguramente no afectará a la comprensión y se sobreentenderá, no siendo así si borramos la palabra "niño" del mismo texto original. Cuando todos los símbolos son igualmente probables (distribución de probabilidad plana), todos aportan información relevante y la entropía es máxima.

El concepto entropía es usado en termodinámica, mecánica estadística y teoría de la información. En todos los casos la entropía se concibe como una "medida del desorden" o la "peculiaridad de ciertas combinaciones". La entropía puede ser considerada como una medida de la incertidumbre y de la información necesarias para, en cualquier proceso, poder acotar, reducir o eliminar la incertidumbre. Resulta que el concepto de información y el de entropía están básicamente relacionados entre sí, aunque se necesitaron años de desarrollo de la mecánica estadística y de la teoría de la información antes de que esto fuera percibido.

sábado, 1 de agosto de 2015

NEGUENTROPIA

La neguentropía o negantropía, también llamada entropía negativa o sintropía, de un sistema vivo, es la entropía que el sistema exporta para mantener su entropía baja; se encuentra en la intersección de la entropía y la vida. Para compensar el proceso de degradación sistémica a lo largo del tiempo, algunos sistemas abiertos consiguen compensar su entropía natural con aportaciones de subsistemas con los que se relacionan. Si en un sistema cerrado el proceso entrópico no puede detenerse por sí solo, en un sistema abierto, la neguentropía sería una resistencia sustentada en subsistemas vinculados que reequilibran el sistema entrópico.

La neguentropía se puede definir como la tendencia natural de que un sistema se modifique según su estructura y se plasme en los niveles que poseen los subsistemas dentro del mismo. Por ejemplo: las plantas y su fruto, ya que dependen los dos para lograr el método de neguentropía.

jueves, 30 de julio de 2015

PRINCIPIO DE ORGANICIDAD

Iniciaremos por decir que la organicidad es una característica de los sistemas abiertos los que pueden mantenerse en un estado ordenado mediante la extracción de neguentropía del medio. El Principio de Organicidad, en otras palabras, es aquella que capta la información del medioambiente suficiente para sobrevivir.

Podemos citar algunas definiciones sobre el principio de organicidad:

  •  Todo sistema busca un estado más estable de mayor desorganización o entropía creciente.
  •  A mayor organización, existe mayor complejidad.
  • Ley de la organización, cualquier materia viva busca estructurarse de un modo básico.

martes, 28 de julio de 2015

ENTORNO

El entorno es aquello que rodea a algo o alguien. Por ejemplo: la frase “Martín cayó en la droga por la mala influencia de su entorno” señala que esta persona habría comenzado a drogarse por la presión o el consejo de los sujetos con quienes compartía su vida.

Otro uso de la palabra entorno en el ámbito de la tecnología permite referirse al entorno de escritorio (o desktop environment, en inglés). Se trata del software que permite que un usuario pueda utilizar una computadora de manera sencilla y amigable gracias a una adecuada interfaz gráfica.

domingo, 26 de julio de 2015

EQUIFINALIDAD

En un sistema, los "resultados" (en el sentido de alteración del estado al cabo de un período de tiempo) no están determinados tanto por las condiciones iniciales como por la naturaleza del proceso o los parámetros del sistema.La conducta final de los sistemas abiertos está basada en su independencia con respecto a las condiciones iniciales. Este principio de equifinalidad significa que idénticos resultados pueden tener orígenes distintos, porque lo decisivo es la naturaleza de la organización. Así mismo, diferentes resultados pueden ser producidos por las mismas "causas".Por tanto, cuando observamos un sistema no se puede hacer necesariamente una inferencia con respecto a su estado pasado o futuro a partir de su estado actual, porque las mismas condiciones iniciales no producen los mismos efectos.