Ver Mensaje Individual
  #8 (permalink)  
Antiguo 05/05/2015, 15:26
Tachikomaia
Invitado
 
Mensajes: n/a
Puntos:
Respuesta: Proyecto de inteligencia artificial de codigo abierto

[SPOILER]Sugerencia: No hables de IA. Porque es algo vago, es como decir "lo alto", "lo pesado", "lo valioso", no existe algo objetivo con qué determinar a partir de qué punto algo es "eso". Tal vez me equivoque, claro, pero esa posibilidad es también para mí otro motivo para no usar esas palabras.
Como título está bien -aunque yo ya no lo usaría, creo-, y buscas enfocar el tema así que mejor aún, pero entonces podrías haber enfocado el título, tal vez...

Cita:
No se trata de iniciar con robótica por que la dificultad más que en el hardware esta en el software.
Después de todo el hardware solo se adapta y listo.( se que es difícil pero todo está en el software)
¬_¬ Es dudoso. Sin hardware no hay software que corra, ergo debe estar adaptado al hardware. Además en robotica se supone que debes diseñar circuitos y armar cosas de los robots, aunque sea uniendo partes. Estoy de acuerdo en empezar por el tema software, pero no por el motivos que dices, sino porque resulta más fácil.

Cita:
Todos como humanos tenemos un objetivo esencial y eso es ser feliz y por consecuencia huirle a la infelicidad.
También dudoso, no tanto pero bue. La clave está en pensar cómo te sentirías o qué harías, si sintieras que tu vida está arruinada. Me dirás que si se siente eso es una falla del cerebro o algo. Pero entonces ya no es un objetivo esencial de los humanos ¿o se deja de ser humano al sentir eso?

Errar es humano, eso podría servir como argumento a favor de tu teoría. Pero bueno, algo como lo dicho puede sentirse cuando... es muy largo de explicar, deseos insatisfechos durante mucho tiempo, sensación de que uno es tonto o muy diferente, egoísmo que crece o se manifiesta en esas condiciones, quizás porque se burlan de uno o hay cierta sensación de injusticia... Como dije, es largo de explicar, y no conozco muchas pelis como para recomendarte una que lo "explique", pero Avatar está bastante bien. El tipo se enamora de una muchacha y ella de él, pero la está engañando. Cuando le cuenta la verdad, ella se enoja. Luego, por a o b, él arriesga su vida por el pueblo de ella, que en cierto modo también era el suyo, y ella lo perdona, blablabla. Ahora ¿qué hubiera pasado si el tipo no hubiera tenido la capacidad como hacer algo tan "grandioso" como montar un pajarraco gigante -lo cual era idiolatrado por el pueblo además, montar un tiburón gigante no hubiera servido =) -, o si, a pesar de eso, la muchacha no lo hubiera perdonado, o si se hubiera enojado no por un engaño sino un malentendido y falta de interés en escuchar porque antes cuando él pudo hablarle quedó en blanco o no sabía bien de qué hablar, porque era tan diferente?
Hay varias posibles respuestas, vale, pero una es deprimirse y decir "bueno, pero antes de morir quiero mejorar el mundo". Enojarse también puede llevar a lo mismo. En definitiva, en ese caso, la cosa no es tanto buscar la felicidad sino hacer lo correcto mezclado con evitar un sufrimiento. Si fuese simplemente dejar de sufrir, se suicidaría. Si "hacer lo correcto" es para no sufrir, vale, pero ¿por qué sufrir por eso? ¿es realmente inevitable sentir así, es realmente lo más cómodo vivir así? No, es más bien una "decisión" moral, es decir, no es ni es algo inevitable (como sentir hambre) ni es lo más cómodo (lo más cómodo, si existiera la opción, sería ponerse a vivir en una realidad virtual donde todo sea como uno quiera, o sino ponerse a pensar que "yo estoy bien, el problema lo tienen los demás". Decisión entre comillas porque soy determinista absoluto ergo no creo en eso.

Cita:
Se trata de hacer que esa inteligencia busque su objetivo, su misión para ser.
Dependerá de cómo se programe, así como nosotros dependemos de cómo "nos programaron".
Basado en esto, veo que quieres hacer algo "random" o algo que parece imitar al ser humano. Lo 1ero es peligroso, y seguramente inútil -como vivencia para ti sí será útil-, es decir, habrás oído del mono escritor y las obras de Shakespeare... Seguramente no las escribirá. Si evitas que se repitan casos, bueno sí, pero probablemente la gente se aburra de ver que no sucede y deje de hacer pruebas. Es como que mires el cielo esperando que aparezca una estrella fugáz, ovni o algo, yo mucho tiempo no estoy, me aburro. Bueno si te acomodas y no hay mosquitos ni frío, vale, pero era sólo un ejemplo xD
Tal vez deberías hacer un programa que reconozca cuando tu "IA" encontró un resultado "interesante".
Si en vez de hacer algo random quieres hacer una imitación de un humano, bueno, quizá te salga como el hombre bicentenario y y haga cosas magníficas, pero si te sale como un humano cualquiera no le veo mucho sentido al proyecto. Hasta podría decir que es inhumano. Como si crearas a Frankestein y él supiera que no es humano. No sería agradable lo que sienta.

Cita:
"Conocer cosas nuevas" creo que será la más importante para iniciar
Y la moral? Mira si quisiera saber cómo funcionas y te abriera como si fueses un huevo de pascua...

Cita:
el proyecto de esta inteligencia no es meterle conocimiento mediante programación si no hacer que el programa piense por sí solo y busque la información, la asimile, la asocie, genere conclusiones y decida qué es lo mejor y ese sea su objetivo, conseguir lo mejor y que lo logre con inteligencia.
Se parece a lo que plantee tiempo atrás, creo incluso que hablé contigo o algo, tu nick me suena. Actualmente no tengo claro qué quiero, igual quizá nunca lo he tenido, pero con el tiempo empecé a preocuparme más por lo que puedo. Ese sería mi consejo. Si consigues una comunidad que te apoye, como leí más adelante, bien, pero sino creo que es un camino muy largo de recorrer y... dudo que tengas claro el significado de lo que dices y no creo que tenga sentido que te lo aclares ahora porque a medida que avances irás cambiando tu modo de ver las cosas, aunque sea por la cantidad. Sí, supongo que debes intentar entenderlo igual ahora, así te servirá de práctica, pero más allá de eso creo que no.

Lo que yo hago, tiene ciertos aspectos de lo que dices pero se parece más a una calculadora que a un curioso. En mi programa debes insertar datos, tú, usuario. Sin ellos, no funciona. Los humanos, podría decirse que requieren percibir, y que sin eso no funcionan bien. Bueno, hasta ahí hay bastante paralelismo, pero dices "pensar por sí sólo", no sé hasta qué punto eres consciente de toda la info que debes incluirle, además del método conque piense. Oí de programas que capten info de páginas de Internet, con eso podrías ahorrarte lo de ponerle info, pero tendrás que poner una forma para que clasifique y reconozca esa info. En este caso siento que tengo muy poca idea de lo que digo, pero evidentemente la info no son sólo cadenas de texto, como dices las debe asimilar...
Asimilar lo interpreto como que comience a actuar como "leyó", si lo considera adecuado. Recientemente leí algo del falsacionismo, por ejemplo, como extensión del método científico, es probable que tu "IA" lea eso en algún momento, pensar "oh, esto me conviene para aprender mejor", o no. Pero el asimilarlo no significa que lo sepa expresar en tu mismo lenguaje, más bien significa que modifique su código o variables, pero no de una forma tan sencilla de entender.

Cita:
Tiene que ver con redes neuronales, ¿simularíamos una neurona a caso?
Lo que leí de eso es que se le daban valores o "peso" a las neuronas, de modo que cada una modificaba el valor recibido. No me gustó mucho, al menos comparado con otras cosas.

Imitar a una persona (si imitas a una neurona...) me parece interesante pero no me interesa tanto como crear un programa que haga "lo mejor" como dijiste por ahí. Las personas no hacen lo mejor. No sé una buena analogía pero es como que quieres hacer naves vivientes. El caso inverso. Ya hay naves "de metal" ¿para qué hacerlas vivientes? Ya hay "humanos vivientes" ¿para qué hacerlos de metal?

Cita:
¿Cómo se empezaría el proyecto, tienen sugerencias ideas?
Has dicho muchas cosas, pero muy generales creo, me gustó esta pregunta pero parece decir que no sabes por dónde empezar, lo cual refuerza lo de "generales".

Somos pocos los que se ponen a hacer algo así. Por eso, tal vez yo no debería ser tan "pesado", podríamos incluso ser amigos, pero yo soy así a veces.

Si vamos al caso, no tengo idea. Yo lo que hago es: Crear una sección donde se pueda decir al programa cual es el problema (la situación inicial), qué acciones son posibles, en qué condiciones ocurriría un cambio (incluyendo "se ha solucionado el problema"), y cómo se variará la acción en caso de no solucionarlo. Entonces, se prueba una acción, si corresponde se realizan los cambios especificados, si se cumple el objetivo se avisa y sino se resetea la situación, se modifica la acción según las especificaciones, y se prueba la nueva acción.
Pero eso está muy lejos de que converse, interprete imágenes, etc.

Haz una lista de las cosas que quieres que tu "IA" haga. Con guiones, de forma clara, algo así:
- Aprender cosas
- Leer
- Escribir
- Interpretar imágenes

Una vez hecha, intentaré decirte. Si fuese "aprender", tal vez haya que resolver esto:
http://sofosagora.net/epistemologia/...lso-t4926.html
Porque, se podría responder "ah, si genera un dato nuevo entonces es útil" -la actividad que haya realizado-, pero ¿cómo saber si ese dato es verdadero? Y útil, sino tu "IA" sería más una enciclopedia que un inventor.

Última edición por Tachikomaia; 05/05/2015 a las 18:50