Las tecnologías no son neutras ni universales. Están atravesadas por relaciones de poder, decisiones de diseño y visiones del mundo que muchas veces excluyen. En este texto, exploramos cómo objetos y herramientas cotidianas, desde una afeitadora hasta un procesador de texto, pueden reproducir sesgos sexistas y clasistas. Pensar la tecnología también es pensar en quién la crea, desde dónde y para quién.
Cuando pensamos en tecnología, solemos imaginar algo neutro, objetivo, tal vez hasta impersonal. Pero lo cierto es que la tecnología también lleva marca de género. No solo en quién accede o quién la usa, sino en cómo está diseñada. Y muchas veces, esa lógica de diseño reproduce –e incluso refuerza– desigualdades.
Dos casos históricos lo ilustran con claridad: las afeitadoras eléctricas para mujeres y los primeros procesadores de texto informáticos.
En los años 50 y 60, la empresa Philips comenzó a fabricar afeitadoras eléctricas dirigidas específicamente a mujeres. No era la primera en hacerlo, pero sí fue la que popularizó el producto. ¿Qué hizo diferente a estas afeitadoras “femeninas”? No solo los colores suaves, los kits con productos de belleza o el perfume para ocultar el olor del motor.
La diferencia más profunda estaba en su estructura: estas máquinas no podían abrirse. Las usuarias no tenían acceso a su interior ni podían realizar ajustes o arreglos menores. En contraste, las afeitadoras para hombres se vendían con pequeños destornilladores e instrucciones para manipular el aparato.
La lógica detrás de este diseño era clara: los hombres eran considerados técnicamente competentes, mientras que las mujeres eran vistas como temerosas o incapaces de lidiar con mecanismos complejos. Un prejuicio de género inscrito directamente en el objeto.
El segundo ejemplo viene del mundo del software. La investigadora Janette Hofmann estudió el diseño de los primeros procesadores de texto, como el IBM DisplayWriter o el Wang Writer, usados entre fines de los años 70 y principios de los 90.
Estos programas fueron diseñados pensando en un perfil muy específico de usuarias: las secretarias. Y aquí entra en juego un estereotipo poderoso. En el modelo tradicional de oficina, el directivo (hombre) redactaba o dictaba y la secretaria (mujer) mecanografiaba. Esta tarea, considerada “mecánica” y simple, fue la base sobre la cual se construyeron los primeros softwares de edición de texto.
¿El resultado? Programas con interfaces simplificadas al extremo, rígidas, limitadas. Hofmann cita incluso que algunos diseñadores los llamaban literalmente idiot-proof, es decir, “a prueba de idiotas”. El supuesto detrás: las mujeres eran incompetentes tecnológicamente. Y aun cuando eran expertas escribiendo a máquina, el software las trataba como principiantes eternas.
Peor aún: en lugar de priorizar la eficiencia o la productividad, se eligió limitar funciones para “proteger el sistema de los errores de las operadoras”. La consecuencia práctica fue que muchas secretarias trabajaban más lento con el nuevo sistema que con las máquinas tradicionales.
Mientras tanto, programas como WordPerfect o WordStar, diseñados con mayor confianza en las capacidades de las usuarias, fueron ampliamente preferidos y utilizados durante años.
Estos ejemplos muestran algo fundamental: el diseño tecnológico nunca es neutral. Siempre está atravesado por supuestos, creencias, imaginarios. Y muchas veces, esos imaginarios están profundamente marcados por el género.
Diseñar sin perspectiva de género puede parecer un detalle menor, pero tiene consecuencias reales: limita la autonomía, impone barreras, y refuerza estereotipos que muchas veces luchamos por derribar.
Por eso, pensar en tecnología feminista no es pensar en “tecnología para mujeres”, sino en una forma de crear herramientas más justas, accesibles y verdaderamente inclusivas.
Porque sí, una afeitadora o un procesador de texto también pueden ser sexistas. Y también pueden ser una oportunidad para cambiar las reglas del juego.
Información tomada del artículo de Burnett, Margaret, et al. (2016). “GenderMag: A Method for Evaluating Software’s Gender Inclusiveness. Interacting with Computers”