- OpenAI está considerando implementar un sistema similar al “modelo Wikipedia” en ChatGPT, basado en la colaboración y moderación comunitaria para mantener la calidad y precisión de la información.
- Los moderadores de Wikipedia, voluntarios dedicados, juegan un papel crucial en la supervisión y protección de los artículos.
- Aunque se desconoce el número exacto, se estima que hay decenas de miles de moderadores activos en todo el mundo.
La compañía creadora de ChatGPT, OpenAI, está estudiando la manera en que sus sistemas de inteligencia artificial generativa recopilan de internet la información que luego devuelven a los usuarios.
Lo dijo este lunes Greg Brockman, presidente de ChatGPT, en AI Forward, un evento organizado por Goldman Sachs Group en la ciudad estadounidense de San Francisco.
Brockman habló del entorno general de la inteligencia artificial y de cómo el desarrollador del chatbot más popular del mundo enfrentará las regulaciones.
Entre sus declaraciones, se destaca una que llamó la atención: habló de un sistema similar al “modelo Wikipedia”, que requiere que personas con puntos de vista diferentes se unan y estén de acuerdo con cada cosa que se publique en la enciclopedia online.
“No somos personas en Silicon Valley pensando en escribir nosotros solos las reglas que regirán para todos”, dijo Brockman sobre las políticas de AI. “Lo que estamos haciendo es comenzando a pensar cómo tomaremos las decisiones democráticamente”, amplió.
Por otra parte, Brockman dijo –en línea con una publicación en el blog de OpenAI–, que necesitan que los gobiernos de todo el mundo se coordinen para garantizar que la AI se desarrolle de forma segura.
Desde su irrupción a finales de 2022, ChatGPT, la tecnología de inteligencia artificial que puede llevar a cabo textos excelentes a partir de pautas de usuarios, se ha convertido en la aplicación de mayor crecimiento de la historia.
Igualmente, también se han generado fuertes discusiones por problemas vinculados a la información falsa.
¿”Modelo Wikipedia” para ChatGPT?
Wikipedia se basa en un modelo colaborativo, lo que significa que cualquier persona con acceso a Internet puede crear, editar y contribuir a los artículos.
Esta característica fundamental ha sido clave para su crecimiento y éxito, pero también plantea el desafío de mantener la calidad y la precisión de la información.
Para abordar esto, Wikipedia se apoya en un sistema de moderación basado en la comunidad, que ahora estaría analizando OpenAI para su chatbot.
Los moderadores de Wikipedia, conocidos como “wikipedistas”, son voluntarios que dedican su tiempo y conocimiento para garantizar la exactitud y confiabilidad de los artículos. Cualquier usuario puede convertirse en un wikipedista después de un período de prueba y demostrar un compromiso con los principios y políticas de Wikipedia.
Estos moderadores tienen la capacidad de revertir cambios malintencionados o incorrectos, proteger artículos de vandalismos y bloquear a usuarios problemáticos.
Aunque el número exacto de moderadores de Wikipedia no se conoce, se estima que hay decenas de miles activos en todo el mundo.
Además de los moderadores, existen grupos de usuarios con diferentes roles y responsabilidades, como bibliotecarios y administradores, que se encargan de tareas específicas dentro de la plataforma.
Ahora lee:
LuzIA, el ChatGPT de Whatsapp para transcribir audios
OpenAI anuncia su app de ChatGPT para iOS
ChatGPT te puede ayudar a conseguir el trabajo de tus sueños